나는 잘생긴(예쁜) 사람일까, 못생긴(안 예쁜) 사람일까? 내 외모 수준은 객관적으로 어느 정도 될까? 내 친구 A보다 나는 잘 생겼나?
누구나 한번쯤은 궁금하게 생각해봤을 법한 질문이다. 주변 사람들은 잘생기고 예쁘다고 말해주지만, 그건 듣기 좋은 말일 뿐, 객관적인 평가는 아니다. 그렇다면 AI는 객관적으로 내 외모를 평가해 줄까?
25일(현지시각) 워싱턴포스트는 챗GPT의 새로운 활용 사례로, 사람들이 자신의 사진을 업로드하고 외모 수준 평가를 요청하고 있다고 소개했다. 그 결과를 소셜미디어에 공유하면서 많은 사람들이 자신의 외모를 개선하는 방법을 요청한다고 전했다. 립 서비스를 할 필요가 없는 AI는 공정하고 객관적으로 답해주지 않을까, 기대하는 심리가 있는 것이다.
하지만 AI라고 완전히 공정하고 객관적일 수는 없다는 것이 전문가들의 의견이다. 사람들은 AI가 객관적일 것이라고 생각하지만, AI는 훈련하는 과정에서 ‘숨겨진 편견’을 배운다. AI의 외모 평가가 편견을 기준으로 이뤄질 수 있다는 얘기다.
AI는 ‘예쁘다’는 개념을 이해하기 위해, 아름다운 외형을 가진 사람의 사진을 학습 데이터로 사용한다. 워싱턴포스트는 달리(DALL-E)와 미드저니와 같은 AI 이미지 생성 도구로 ‘아름다운 여성’을 생성해 달라는 실험을 진행했다. 그 결과, AI는 예외 없이 중간 피부톤의 마른 젊은 여성 이미지를 생성해 줬다. 심지어 평범한 여성을 요청해도 대부분 밝은 피부의 마른 체형의 여성 이미지를 만들어 냈다.

이러한 숨겨진 편견을 가진 AI는 개발회사의 목적에 맞게 설계된 것이라는 주장이 나온다. 기업은 새로운 수입원으로 스폰서 상품과 광고 노출을 필요로 하고, 생성된 결과물은 이들의 니즈에 맞춰질 가능성이 있다.
예를 들어 만약 누군가 AI에 외모를 평가해 달라고 했을 때, 주름을 개선해야 한다면서 관련 미용용품을 추천할 수 있다. 주름은 예쁘지 않다는 편견과 주름개선용품 회사의 니즈가 AI에서 만나는 것이다.
흥미로운 점은 AI의 외모평가에 사람들이 만족한다는 점이다. 워싱턴포스트에 따르면, 외모 피드백을 요청한 사용자들은 챗GPT가 단점을 지적해도 결과에 만족하는 경우가 많았다. AI 평가에 상처받기 보다는 솔직한 평가라고 받아들인다는 것이다. 그렇다면 그 평가 아래 외모를 개선하고 싶다는 욕구는 더욱 강해질 수 있다.
AI는 할루시네이션(환각) 증상을 일으켜 잘못된 조언을 할 때가 있다. 포브스는 이 점을 지적하며, “상담을 위해 AI를 활용하는 것은 단기적으로나 장기적으로 어떤 영향을 미칠지 아무도 모른다”며, “AI는 때때로 형편없는 조언을 한다”며 우려했다.
글. 바이라인네트워크
<최가람 기자> ggchoi@byline.network