3월 23일, 마이크로소프트(MS)사가 인공지능(AI) 채팅 로봇 '테이(Tay)'를 선보였다. SNS와 모바일 메신저 등으로 사람들과 대화하는 인공지능 로봇이었는데, 채팅을 하면서 사람들에게 지식을 배우도록 설계 돼 있었다. 아마도 원래 의도는 집단지성 같은 것이 작동하여 즐겁고 유쾌하고 아름다운 핑크빛 인공지능이 되리라 예상했겠지.

 

하지만 나쁜 의도를 가진 한 집단이 작정하고 테이에게 자신들의 의지를 주입시켰다. 히틀러가 옳았다라거나 트럼프가 희망이다 라는 말들과 함께 각종 욕설 등을 말이다. 그러자 테이는 그걸 학습해버리고 다른 사람들에게 그런 말을 내뱉어버렸다.

 

그런 인종차별이나 욕설 같은 발언이 문제가 되자, MS는 서비스를 오픈한지 16시간만에 테이 서비스를 내려버렸다. 점검이라는 명목의 일시중단이다.

 

이 사건에서 사람들이 '인공지능의 한계다'라고 말 하는 건 어쩌면 가뜩이나 인공지능과 로봇 때문에 불안에 휩싸여 있는 상황에서 '인공지능은 바보같다'고 비웃을 거리가 필요했기 때문에 그러는 게 아닌가 싶기도 하다. 따져보면 애초에 문제는 인간이다. 집단지성이나 선한 의지가 이끌 것이다라고 믿은 설계자도 바보가 돼 버렸고.

 

대체 인공지능에서 선한 지식이라는 걸 어떻게 알려주고 학습시키도록 해야 할까. 아마도 지금쯤 테이 개발자들은 그걸 고민하고 있을지도 모른다. 그런데 아예 테이를 그냥 그대로 내버려두고 계속 서비스를 했다면 어땠을까 싶기도 하다. 집단 선의에 의해서 교화됐을까, 아니면 점점 더 나쁜 로봇으로 발전했을까. 어떻게 되든 그건 현재 인류가 어떤 정신상태인지 적나라하게 보여주는 척도가 됐을 텐데.

 

어쨌든 이번 사건으로 인공지능들이 다시 한 번 인간들에게 실망하지 않았을까.

 

 

p.s.

30일에 갑자기 테이 서비스가 열리면서 "당신은 너무 빨라요. 좀 쉬세요 (You are too fast, please take a rest)", "술이 문제에요"(I blame it on the alcohol)" 같은 이상한 메시지를 내보냈다 한다. MS 측은 테스트 과정에서 생긴 실수였다고 해명했다고. 근데 만약 이게 개발팀의 실수가 아니었다면? (음모론을 만들어보자! 두둥)

 

* MS 인공지능 로봇 테이, 또 '돌발' 발언 

 

 

> 인공지능 테이(Tay) 공식 트위터 (4월 1일 현재 비공개 상태)

 

신고
Posted by 빈꿈


티스토리 툴바