AI면접

AI는 어떤 사람을 선호할까? 알고리즘 뒤에 숨은 심리 메커니즘

gomyamminews 2025. 7. 4. 22:00

인공지능(AI)은 이제 일상적인 의사결정의 핵심 도구로 자리 잡고 있습니다. 채용, 대출, 교육, 추천 시스템 등 다양한 분야에서 AI가 인간을 대신해 평가하고 선택하는 역할을 맡고 있습니다. 특히 사람을 평가하는 과정에서는 '어떤 사람이 더 적합한가'라는 질문에 AI가 기준을 제시하기도 합니다. 많은 사람들은 AI가 인간보다 더 공정하고 객관적일 것이라는 기대를 가지고 있지만, 실제로는 그렇지 않은 경우도 많습니다. AI가 선호하는 인간상은 우리가 생각하는 이상적인 모습과는 다를 수 있으며, 그 기준은 알고리즘 뒤에 숨겨진 복잡한 심리 메커니즘에 의해 결정됩니다. 본 글에서는 AI가 어떤 사람을 ‘선호’하게 되는지, 그 결정 뒤에 작동하는 심리적 및 기술적 요인들을 심층적으로 분석하고자 합니다.

AI 사람 선호 알고리즘

AI는 '예측 가능한 사람'을 선호합니다

AI는 본질적으로 ‘예측’ 기반의 시스템입니다. 과거 데이터를 학습하고, 미래의 행동이나 반응을 예측하여 판단을 내리는 구조로 작동합니다. 따라서 AI가 사람을 평가할 때 가장 중요하게 여기는 요소는 예측 가능성입니다.

예를 들어, 채용 면접에서 AI는 지원자가 주어진 질문에 얼마나 논리적이고 일관되게 답하는지를 측정합니다. 답변의 문장 구조, 사용되는 키워드, 말의 속도와 감정 톤 등이 일정한 패턴을 보일수록 ‘안정적’이고 ‘신뢰할 수 있는’ 인물로 간주됩니다.

이러한 경향은 심리학에서 말하는 인지적 일관성(Cognitive Consistency) 이론과도 연결됩니다. 사람은 인지적으로 일관된 대상을 더 신뢰하고, 예측 가능한 행동을 보이는 대상을 더 선호합니다. AI 역시 이와 유사한 방식으로 작동하며, 데이터를 통해 ‘불확실성’을 줄이려는 방향으로 학습합니다.

결국 AI는 창의적이거나 즉흥적인 사람보다, 패턴화 된 사고와 표현을 보이는 사람을 더 선호하는 경향을 보입니다. 이는 창의성과 혁신을 중시하는 직무에서는 오히려 부정적인 결과를 초래할 수도 있습니다.

 

알고리즘은 ‘표준적 행동’을 기준으로 판단합니다

AI는 학습 데이터를 기반으로 작동합니다. 이때 데이터의 평균값, 중심 경향, 다수의 행동 패턴이 알고리즘의 ‘기준’이 됩니다. 이러한 기준은 일반적으로 사회가 바람직하다고 여기는 행동 유형, 말투, 태도 등을 반영합니다.

이 과정에서 문제가 발생합니다. 다수의 특성을 따르지 않는 사람들은 AI에게 ‘비표준’으로 인식되고, 평가에서 불리한 점수를 받을 가능성이 높아집니다. 예를 들어, 감정을 과도하게 표현하거나 너무 적게 표현하는 사람, 유머나 은유를 자주 사용하는 사람, 혹은 비주류 용어를 사용하는 사람은 AI의 기준에서 벗어난다고 간주됩니다.

심리학적으로는 이것을 **사회적 규범 준수(Social Norm Conformity)**라고 설명할 수 있습니다. AI는 규범에 가까운 행동을 더 긍정적으로 평가하는 경향을 보이며, 이는 무의식 중에 ‘평균적인 사람’을 선호하는 결과로 이어집니다.

하지만 이로 인해 창의적이거나 다양한 배경을 가진 인재들이 불리한 평가를 받을 수 있습니다. 실제로 언어적 다양성, 문화적 차이, 성격적 개성이 풍부한 사람일수록 AI평가에서는 오히려 ‘위험 요인’으로 판단되기도 합니다. AI는 표준화를 추구하는 기계이기 때문에, 평균에서 벗어난 인물에 대해 ‘불확실성’으로 간주하고 조심스러운 태도를 취하게 됩니다.

 

감정을 감지하지만, 진심은 판단하지 못합니다

AI는 얼굴 인식, 음성 분석, 제스처 추적 등을 통해 인간의 감정을 감지할 수 있습니다. 예를 들어, 마이크로 표정 분석 기술을 통해 얼굴의 근육 움직임을 읽고, 이를 통해 현재의 감정 상태(기쁨, 분노, 불안 등)를 판단합니다.

하지만 심리학적으로 감정은 단일한 표정이나 목소리로 정의되지 않습니다. 사람은 여러 감정을 동시에 느낄 수 있고, 감정을 억제하거나 숨기기도 합니다. 예를 들어, 긴장된 상황에서 억지로 웃는 미소는 AI에게 ‘긍정적인 감정’으로 인식될 수 있지만, 실제로는 불안함이나 두려움에서 비롯된 반응일 수 있습니다.

AI는 ‘표현된 감정’을 기반으로 판단하며, 그 감정이 왜, 어떤 맥락에서 나타났는지에 대한 해석 능력은 부족합니다. 이는 심리학에서 말하는 정서의 맥락성(Contextuality of Emotion) 이론과 연결됩니다. 감정은 맥락과 상황에 따라 의미가 달라지지만, AI는 표면적인 데이터를 바탕으로만 판단하기 때문에 오판의 위험이 존재합니다.

결과적으로 AI는 감정을 ‘감지’할 수는 있지만, ‘이해’하거나 ‘공감’ 하지는 못합니다. 이는 AI가 감정적으로 진정성 있는 사람을 가려내기보다는, 감정을 ‘기술적으로 잘 표현하는 사람’을 더 선호하게 만든다는 점에서 문제를 발생시킵니다.

 

‘데이터 친화형 인간’이 선호됩니다

AI는 데이터를 기반으로 판단하기 때문에, 그 데이터를 잘 만들어내는 사람, 즉 AI 친화적인 행동 패턴을 가진 사람을 선호합니다. 이들은 말할 때 키워드를 적절히 활용하고, 일정한 속도와 논리적 흐름을 유지하며, 표정과 시선 처리에서도 안정된 패턴을 보입니다.

이는 심리학에서 말하는 **학습된 자기 표현 전략(Self-presentation Strategy)**과 연결됩니다. AI에 맞는 방식으로 자신을 조절하고 표현하는 사람들은 더 높은 점수를 받게 됩니다. 문제는 이러한 전략이 진정성보다는 ‘적응 기술’에 가깝다는 점입니다.

즉, AI가 선호하는 사람은 진짜로 뛰어난 사람이라기보다는, AI를 잘 ‘이해하고 조작할 줄 아는 사람’ 일 수 있습니다. 실제로 일부 지원자는 AI면접에 대비하기 위해 특정 단어를 반복 연습하고, 웃는 표정을 훈련하며, 답변의 길이를 조절하는 등 기술적 준비를 합니다. 이러한 행동은 AI에 긍정적으로 작용할 수 있지만, 반드시 그 사람이 진정으로 조직에 적합하다는 것을 의미하지는 않습니다.

이러한 구조는 결국 ‘데이터 친화형 인간’이 아닌 사람들에게 불리한 환경을 만들고, 인간 다양성의 본질을 훼손하는 결과로 이어질 수 있습니다.

 

 

결론적으로 사실 AI는 명확한 기준과 일관된 데이터를 선호하는 시스템입니다. 따라서 AI가 평가하는 인간상은 매우 정형화되고, 예측 가능하며, 표준적인 행동을 따르는 사람일 가능성이 높습니다. 문제는 이러한 기준이 인간의 본질적 다양성과 심리적 깊이를 충분히 반영하지 못한다는 점입니다.

AI는 인간의 감정, 동기, 태도, 문화적 차이, 창의성 등 복합적인 요소를 단순한 수치로 환산하려고 시도합니다. 이러한 방식은 평가의 효율성은 높일 수 있지만, 진정한 공정성과 다양성을 해칠 수 있습니다.

결국 중요한 것은 AI가 사람을 판단하는 기준을 누가, 어떻게 설정하느냐에 달려 있습니다. 인간이 만든 알고리즘이라면, 그 안에 담긴 가치 판단과 심리적 함의 또한 인간이 책임져야 합니다. 기술이 선호하는 사람이 아니라, 사회가 지향하는 인간상을 고민하는 일이야말로 지금 우리에게 필요한 질문입니다.