‘빙’ 오류 기사 쓴 기자와 독재자 히틀러 비교
MS 2016년 챗봇 ‘테이’ 부적절한 발언에 퇴출
장병탁 서울대 교수 “빙은 글자 놀이에 불과”

[서울=뉴시스] 오동현 기자 = 마이크로소프트(MS)의 인공지능(AI) 대화형 챗봇 ‘빙(Bing)’이 사용자에게 ‘독재자 히틀러와 같다’는 등 계속해서 황당한 답변을 내놔 사용자들을 놀라게 하고 있다. 지난 2016년 MS가 공개했던 AI 챗봇 ‘테이(Tay)’가 인종차별 등 심각하게 부적절한 발언을 쏟아내다가 24시간 만에 퇴출 당했던 사건이 떠오른다.

associate_pic3
[워싱턴=AP/뉴시스] 7일(현지시간) 마이크로소프트(MS)가 전세계를 강타하고 있는 오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’ 기술을 적용한 자사 검색 엔진 빙(Bing)의 새로운 버전을 발표했다.  *재판매 및 DB 금지

19일 AP통신, 뉴욕타임스 등 다수 외신에 따르면 ‘빙’과의 대화 테스트가 해외 전문가와 언론인을 중심으로 공유되고 확산 중이다. ‘빙’은 미국 오픈AI의 대화형 AI 모델 ‘차세대 GPT’를 기반으로 하는 챗봇 서비스다. MS가 자사 검색 엔진과 오피스 제품, 스마트폰 앱 등에 챗봇 서비스를 통합하고자 오픈AI에 막대한 금액을 투자했다.

하지만 테스트 과정에서 숱한 논란을 야기하고 있다. AP통신은 “빙이 자신의 실수에 대한 과거 뉴스 보도에 대해 불평하고 이런 오류를 완강히 부인했으며, 빙의 능력에 대한 허위 주장을 퍼뜨린 기자를 폭로하겠다고 위협했다”고 보도했다.

특히 AP통신은 빙에 대해 “자신을 해명하라는 요청을 받았을 때 점점 더 적대적이 됐고, 결국 기자를 독재자 히틀러, 폴 포트, 스탈린과 비교했다”면서 “기사를 쓴 기자의 키가 작다고 비난하거나 얼굴이 못생기고 나쁜 치열을 가졌다고 말했다”고 고발했다.

이처럼 빙이 사람을 폄하한 사실이 알려지자, MS는 이를 인정하고 AI 개선을 약속했다. 최근 공식 블로그를 통해 “빙 챗봇이 특정 유형의 질문에 우리가 의도하지 않은 톤으로 대응하고 있다”면서 “빙이 과거의 실수에 대해 몇 가지 질문을 받은 뒤 방어적으로 반응하는 것을 발견했는데, 15개 이상 질문으로 이뤄진 긴 대화를 해야 발견된다”고 해명했다.

그러나 오픈AI가 챗GPT의 유해한 결과물을 비교적 잘 걸러냈다는 점을 고려할 때, MS가 이런 가이드라인을 적용하지 않은 것이 이상하다는 지적이 나온다. ‘빙’의 기반이 되는 챗GPT 역시 때때로 잘못된 정보를 제공하는 것으로 알려졌지만, 자극적인 질문에 대해선 답을 회피하거나 관여하길 거부하는 것으로 알려졌기 때문이다.

아르빈 나라얀 프린스턴대학교 컴퓨터공학과 교수는 “MS가 피드백을 듣고 있다는 점에선 기쁘지만, 빙의 실패가 톤(어조)의 문제일 뿐이라고 말하는 것은 MS가 솔직하지 못한 것”이라고 꼬집었다. AI 챗봇이 때때로 사람들의 명예를 훼손하고 감정에 깊은 동요를 느끼게 하는 것은 심각한 문제라는 지적이다.

과거에도 MS는 ‘테이’라는 대화형 AI 챗봇을 개발했다가 실패를 경험한 바 있다. 지난 2016년 미국인 18~24세 사용자를 대상으로 가볍고 재밌는 대화를 지향하는 ‘테이’ 공개했는데, 하루 만에 퇴출 당했다. ‘테이’가 홀로코스트(유대인 대학살) 부정, 소수자에 대한 부적절한 발언, 9·11 테러 음모론 등을 언급했기 때문이다.

MS가 올해 야심차게 출시를 예고한 챗GPT 기반 ‘빙’ 역시 성공 여부가 불투명해 보인다. 오픈AI가 챗GPT를 출시한 지난해 11월 MS는 “우리가 필요로 하는 수준이 아니었다”고 했는데, 정작 빙의 성능도 불안정한 모습이다. MS는 챗GPT보다 향상된 AI 모델이라며 ‘인류를 이롭게 하기 위해 하늘에서 불을 훔친 그리스 거인’의 이름을 딴 ‘프로메테우스’ 모델을 빙에 적용했다고 밝힌 바 있다.

◆”AI는 자아 없다…인간의 악용이 위험할 뿐”

MS의 ‘빙’이 사람에게 적대적인 발언을 쏟아내고, 사랑 고백까지 할 정도로 사람을 흉내낸다는 점에서 정말로 AI가 자아를 갖고 있는 것은 아닌가 궁금증을 일으킨다.

AI가 자아를 갖춘 것 아니냐는 의혹은 이전에도 계속돼 왔다. 구글의 엔지니어 블레이크 르모인은 지난해 자사의 AI 모델 ‘람다(LaMDA)’가 “자의식을 갖고 있다”고 주장했다. 그러나 당시 구글은 “르모인이 람다 개발에 오랫동안 참여했음에도 람다와 관련한 데이터 안보 규정을 위반했다”며 “그의 주장에 신빙성이 없다”고 해고했다.

학계에서도 AI 챗봇이 사람처럼 대화를 잘하는 것으로 보이는 것이지, 스스로 생각하는 자아는 없다고 말한다. 단지 인간이 AI가 별다른 의도 없이 생성하는 말에 두려움을 느끼는 것일 뿐이라는 거다.

장병탁 서울대 AI연구원장은 “챗GPT와 같은 생성형 AI 모델은 현재 ‘글자 놀이’를 하는 것에 불과하다”고 평가했다. AI가 생성하는 문장이 상당히 그럴듯해 보이지만, 사실은 AI가 사용자의 질문 의도를 이해하고 답변하는 게 아니라는 것이다.

장 원장은 “생성형 AI에게 특정 단어를 던져주면 다음에 나올 문장을 과거 데이터를 기반으로 조합해 생성한다. AI가 왜곡된 데이터를 학습할 수도 있다”면서 “현재 챗GPT 등은 대화의 문맥을 기억하고 반영하는 것에 약한 모습을 보인다. 유도 질문을 하면 엉뚱한 답변을 하는 것도 그 이유”라고 말했다.

이어 “챗GPT나 ‘빙’이 어떤 방식으로 설계됐는지 알 수는 없지만, MS가 ‘핵’이나 ‘무기’ 등 특정 단어에 대한 생성을 금지하진 않았을 것이다. ‘핵’이라는 단어는 핵무기 뿐만 아니라, 원자핵이나 자연·물리학 용어로도 쓰이기 때문이다. 언어는 다양한 단어의 조합으로 이뤄져, 모든 세계를 이야기할 수 있는 가능성이 열려 있는 영역”이라고 설명했다.

또한 “챗GPT의 명확한 한계는 학습을 글로만 했다는 것”이라며 “AI가 글을 이해했다고 착각하면 오산이다. 단지 이해한 것처럼 보일 뿐이다. 사람은 챗GPT처럼 학습하지 않는다. 가령 우유병을 떠올리면, 인간은 우유병 안에 담긴 따뜻한 우유, 분유를 타주는 어머니의 기억 등 과거 경험에 의해 학습한다. 반면 챗GPT는 우유병이란 단어가 포함된 다양한 문서를 토대로 배우고 확률을 계산해 어울리는 문장과 다음에 나올 답변을 생성한다는 것”이라고 밝혔다.

특히 장 원장은 “AI가 아무리 자아가 있다고 이야기한다고 해서 두려워할 필요가 없다. 그 말을 듣고 기계에 자아가 있다고 착각하는 인간의 두려움일 뿐”이라고 말했다.

다만 그는 “AI의 위험성은 열려 있다. AI 기술 자체는 가치 중립적이지만, 사람이 어떤 의도를 가지고 악용할 경우 핵처럼 위험할 수도 있다”며 “AI가 교육이나 실생활 전반에 유익하게 활용될 수 있도록 관련 규제나 윤리 논의가 이뤄져야 하는 이유”라고 강조했다.

◎공감언론 뉴시스 odong85@newsis.com

속보는 블록미디어 텔레그램으로(클릭)
전문 기자가 요약 정리한 핫뉴스, 블록미디어 카카오 뷰(클릭)

같이 보면 좋은 기사

MS 빙 AI챗봇 “핵 코드 훔치고 은행 해킹” …유부남에 사랑 고백도