AI면접

AI 면접, 기술의 공정성을 높이기 위한 최신 시도들

gomyamminews 2025. 7. 20. 18:00

AI 면접은 “사람의 편견 없는 객관적인 판단”이라는 명제를 바탕으로 빠르게 확산되어 왔습니다. AI 면접의 도입은 기업에 시간과 비용의 효율성을 높이고, 지원자에게는 사람의 주관적 판단에서 벗어나 편견 없는 객관적 판단으로 평가받을 수 있다는 장점으로 설명되어 왔습니다. 그러나 실제 AI 면접 시스템이 현실적인 공정성을 완벽하게 구현하고 있느냐에 대해서는 여전히 의문이 제기되고 있습니다.

AI 면접 알고리즘은 결국 과거의 데이터를 학습하여 작동하는데, 그 데이터 자체에 사회적 편향이나 한계가 담겨 있다면, AI는 그 편향을 고스란히 반영합니다. 또한 AI가 평가하는 항목들은 특정한 표현 방식이나 외적 특성에 영향을 받기도 하며, 이는 장애인이나 비정형적 특성을 가진 사람들에게 불리하게 작용할 수 있습니다.

이에 따라 최근 전 세계적으로 AI 면접의 공정성을 재정의하고 강화하기 위한 다양한 기술적·제도적 시도가 이뤄지고 있습니다. 이 글에서는 이러한 시도들이 어떤 방식으로 진행되고 있는지를 구체적으로 살펴보고, 앞으로의 방향성을 함께 고찰하고자 합니다.

 

AI 면접, 기술 공정성 높이기 위한 최신 시도들

AI 감정 분석의 제거 또는 선택 기능 도입

많은 AI 면접 시스템은 지원자의 표정, 눈동자 움직임, 얼굴 근육 등을 분석하여 ‘감정 점수’를 매기고 있습니다. 하지만 이 기능은 문화적 차이, 개인의 신체 조건, 사회적 특성 등에 따라 편향적 결과를 낳을 수 있다는 지적을 받아왔습니다. 특히 안면 근육 이상, 자폐 스펙트럼, 혹은 문화적으로 표현이 절제된 사람들은 감정 표현이 부족하다고 판단되어 감점되는 사례가 있었습니다.

이러한 문제의식에 따라, 최근 일부 글로벌 기업과 솔루션 업체는 감정 분석 기능을 아예 제거하거나, 선택적으로 비활성화할 수 있는 설정을 제공하고 있습니다. 예를 들어 미국의 AI 채용 플랫폼 HireVue는 2021년 이후 감정 분석 기능을 폐지하고, 대신 음성 기반의 언어 분석만을 활용하는 방향으로 정책을 전환했습니다. 이 결정은 사회적 편견을 강화할 수 있다는 내부 윤리 자문단의 권고에 따른 것이었습니다.

국내에서는 아직 대부분의 AI 면접 시스템이 표정과 시선을 포함한 비언어 요소를 평가에 반영하고 있지만, 장애인 지원자에 한해 비언어 분석 제외 기능을 선택적으로 제공하는 사례도 일부 등장하고 있습니다. 이는 AI의 정밀도보다 지원자의 상황을 고려하는 유연성을 점차 반영하려는 흐름으로 해석할 수 있습니다.

 

 

알고리즘 투명성과 설명 가능성 확보 노력

AI 면접의 또 다른 문제는 바로 ‘설명할 수 없는 평가’에 있습니다. 지원자가 탈락했을 때, 왜 탈락했는지를 명확히 알 수 없고, 기업 역시 AI 시스템의 세부 판단 기준을 설명하지 못하는 경우가 많습니다. 이는 지원자의 납득 가능성과 법적 정당성 측면에서 모두 문제가 될 수 있습니다.

이에 대응해, 최근 AI 채용 플랫폼들은 설명 가능한 AI(Explainable AI, XAI) 기술을 적극적으로 도입하려는 시도를 하고 있습니다. 이는 AI가 어떤 기준으로 판단을 내렸는지를 사람이 이해할 수 있도록 기록하고, 결과와 함께 간단한 근거를 제공하는 방식입니다.

예를 들어, AI가 “지원자의 표현이 다소 불명확하여 논리성 점수가 낮았다”는 형태의 피드백을 제공하면, 지원자는 자신의 답변 방식을 개선할 수 있고, 기업도 결과에 대해 보다 책임감 있게 대응할 수 있습니다. 유럽연합(EU)에서는 이미 2024년부터 도입된 AI 규제법(AI Act) 을 통해, 자동화된 채용 시스템이 일정 수준 이상의 설명 가능성을 갖추도록 요구하고 있습니다.

이러한 규범은 한국에도 점차 영향을 미치고 있으며, 일부 공공기관에서는 AI 면접 결과에 대해 지원자 요청 시 간략한 평가 요약 제공을 시범 도입하기 시작했습니다. 이는 아직 초보 단계지만, AI 면접의 책임성과 신뢰성을 강화하는 중요한 진전이라 할 수 있습니다.

 

 

데이터 다양성 확보와 편향 감지 기술 개발

AI의 판단이 공정해지기 위해서는 무엇보다 학습 데이터 자체가 다양하고 대표성 있어야 합니다. 하지만 지금까지의 AI 면접 알고리즘은 대부분 대기업, 수도권, 특정 전공자 중심의 데이터를 기반으로 설계되었기 때문에, 사회 전체를 반영하지 못한다는 한계가 존재합니다.

이에 대응하기 위해, 글로벌 AI 기업들과 일부 국내 스타트업들은 소수자·비정형 사용자 데이터를 포함하는 방식으로 학습 모델을 재설계하는 시도를 하고 있습니다. 특히 신경다양성(autism spectrum) 사용자, 고령자, 외국인 지원자 등을 포함한 음성 데이터, 인터뷰 샘플을 확보해 알고리즘을 재학습시키는 것이 대표적입니다.

또한, 최근에는 AI 편향 감지(Bias Detection) 기술도 함께 개발되고 있습니다. 이 기술은 AI가 특정 인종, 성별, 지역, 또는 말투를 가진 사람에게 일관되게 낮은 점수를 주는지를 모니터링하고, 기준치를 벗어날 경우 경고를 출력하는 기능을 합니다.
이런 기능은 아직 완전히 상용화되지는 않았지만, 일부 글로벌 HR 솔루션에 사전 평가용으로 탑재되기 시작했으며, 향후 채용 시스템의 핵심 요소가 될 가능성이 높습니다.

 

 

다양한 채용 경로 제공을 통한 선택권 확대

AI 면접 기술을 단순히 보완하는 것을 넘어, 지원자에게 다양한 선택지를 제공하는 채용 방식으로 확장하려는 시도도 진행되고 있습니다. 기술이 모든 사람에게 동일하게 작동하지 않는다는 점을 인정하고, 정형화된 면접이 어려운 사람을 위한 ‘대체 경로’를 제안하는 방향입니다.

예를 들어, 일부 기업은 장애인, 외국인, 고령 지원자 등을 대상으로 AI 면접이 아닌 서류 기반 역량 검토 + 인사 담당자 면접 방식을 별도로 운영하고 있습니다. 또한, AI 면접이 필수가 아닌 선택 옵션으로 제시되며, 해당 평가를 원하지 않는 경우 별도의 평가 프로세스로 참여할 수 있도록 유도하고 있습니다.

이러한 방식은 평가 일관성 측면에서는 약점이 될 수 있지만, 공정성 확보와 다양성 존중이라는 면에서 새로운 균형을 모색하는 시도라 할 수 있습니다. 특히 공공기관과 대기업이 먼저 이러한 실험을 시작하면서, 앞으로 다양한 유형의 채용 설계가 보편화될 가능성이 커지고 있습니다.

 

 

AI 면접 기술은 분명히 인사 프로세스의 효율성과 일정 부분의 공정성을 개선해 왔습니다. 그러나 기술이 만들어내는 ‘표준화된 판단’은 때때로 사람의 다양성을 포용하지 못하는 결과를 낳았습니다. 진정한 공정성은 단순한 기술적 동일성이 아니라, 개인의 특성과 상황을 고려한 유연한 설계에서 비롯됩니다.

현재 글로벌 기업과 기술 개발자들은 이런 문제를 인식하고, 감정 분석의 선택화, 설명 가능한 AI 기술, 알고리즘 다양성 강화, 대체 평가 방식 도입 등 다양한 노력을 통해 공정성을 회복하려는 시도를 하고 있습니다.

AI 면접의 미래는 단순한 자동화가 아닌, 더 넓은 포용성과 사회적 책임을 반영하는 방향으로 진화해야 합니다. 사람을 위한 기술이 되기 위해서는, 기술을 설계하는 사람 역시 사람을 먼저 이해하는 노력이 필요합니다.