메뉴

노컷Biz

티마운트

세바시

"무서운 AI, 20초만에 목소리 복사·보이스피싱 시나리오도" [한판승부]

박재홍의 한판승부

"무서운 AI, 20초만에 목소리 복사·보이스피싱 시나리오도" [한판승부]

CBS 박재홍의 한판승부

■ 방송 : CBS 라디오 <박재홍의 한판승부> FM 98.1 (18:00~19:30)
■ 진행 : 박재홍 아나운서
■ 패널 : 진중권 작가, 서용주 더불어민주당 상근부대변인
■ 대담 : 김명주 서울여대 정보보호학과 교수

AI에 6주간 가스라이팅 당힌 벨기에 남성..결국 자살
챗GPT 원래 13세 이하 사용금지, 초등학생은 막아야
해커+챗GPT 결합하면 너무나 좋은 무기 제작 가능

▶ 알립니다
*인터뷰를 인용보도할 때는 프로그램명 'CBS라디오 <박재홍의 한판승부>'를 정확히 밝혀주시기 바랍니다. 저작권은 CBS에 있습니다.
*아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다.
◇ 박재홍> CBS 라디오 <박재홍의 한판승부>, 2부 문을 열었습니다. 금요일에 전해 드리는 '한판클라스' 시간. 오늘은 AI 얘기를 해 보겠습니다. 'AI 기술력에 킬러 로봇이 현실화될까 두렵다'. 50년 이상 AI를 연구했던 AI의 대부인 제프리 힌튼 박사가 최근 구글을 퇴사하면서 했던 말이라서 화제를 모으고 있는데요. 요즘 챗GPT도 나왔고 AI 관련 기술이 많이 발달하면서 괜찮은 것인가, 어디까지 해야 되나 이런 논란이 있습니다. 그래서 관련 전문가 모시고 말씀 나눠보죠. 서울여대 정보보호학과의 김명주 교수입니다. 어서 오십시오, 교수님. 
 
◆ 김명주> 안녕하십니까? 
 
◇ 박재홍> 진 교수님과 서 위원님 인사 나누시고. 
 
◆ 진중권> 안녕하세요. 
 
◆ 서용주> 반갑습니다. 
 
◇ 박재홍> 교수님이 AI 전문가셔서 AI 우호적인 책을 쓰실 줄 알았는데 라는 책을 쓰셨습니다. 양심이 없군요? 
 
◆ 김명주> 그렇죠. 보통 사람한테 양심이 없다 그러면 좀 비난하는 거잖아요, 저 사람 양심이 없다 그런 이론은 비난이 아니라 팩트입니다. AI는 양심이… 
 
◇ 박재홍> 가운데로. 
 
◆ 김명주> 양심 자체가 없다라는 거고요. 그러다 보니까 AI한테 양심적인 어떤 판단을 기대하면 안 된다라는 그런 이야기죠. 
 
◇ 박재홍> 어떤 의미에서 AI의 기술적인 면을 이용해야 되지만 위험성도 함께 인지해야 된다? 
 
◆ 김명주> 그렇죠. 그래서 AI의 위험성을 결국은 해결할 수 있는 방법은 사람들의 양심. 
 
◇ 박재홍> 사람들의 양심이다? 
 
◆ 김명주> 그걸 이용하는, 만드는 사람의 양심, 이용하는 사람의 양심이 그래서 더 중요한 시대가 됐다 이런 거죠. 
 
◆ 진중권> 제프리 힌튼 박사가 한 말 중에 '킬러 로봇이 현실이 될까 걱정이 된다'고 했는데, 킬러 로봇 하면 드론 같은 게 생각나지 AI가 생각나지는 않거든요. 이런 게 어떤 거죠? 
 
◆ 김명주> 요즘에 우크라이나 전장에서도 자살 드론이라는 게 많이 쓰이잖아요. 그 안에 사실 AI가 들어가 있습니다. AI가 들어가 있어서 사물도 인식하고 위치도 인식하고. 보통 킬러 로봇이라고 하면 어떻게 정의를 보통 무기인데 무기가 보통 어떤 상황이 되면 발사가 되잖아요. 그 발사할 때 사람의 개입을 받지 않고 발사해요. 그러니까 본인이 판단하는 거죠. '이 정도 되면 내가 발사해야겠다', AI가 스스로 판단하기 때문에 이제 사람이 개입을 하면 가끔씩 전력적으로 우리가 당해도 좀 참아야겠다, 그래야 전략적으로 우수할 수 있으니까. 그런데 얘는 즉흥적으로 자기가 활동할 되면 그냥 활동을 하는 거죠. 
 
◇ 박재홍> 교수님은 AI 위험성은 그럼 언제 인지하신 거예요? 컴퓨터 공학을 전공하셨는데. 
 
◆ 김명주> 저는 이제 2016년도에 우리나라 유명한 알파고 이세돌. 
 
◇ 박재홍> 바둑. 
 
◆ 김명주> 맞습니다. 그게 우리에게는 전국적인 인식을 심어줬는데 그 당시에 정부에서 그 당시 미래창조과학부인데 AI 윤리를 해야 되겠다라고 해서 팀을 하나 만들었습니다. 제가 그때 팀의 위원장을 했고 그 팀을 만들게 된 이유가 같은 시간에 영국에 스티븐 호킹 박사가 BBC 인터뷰를 하는데 이런 말을 했어요. 'AI는 인류의 마지막 기술일 것이다'라는. 그래서 저 말을 정말 이렇게 어그로 치고 굉장히 세더라고요. 그래서 저게 어떤 뜻일까라고 하면서 여러 가지 특이점이 온다, 책도 그렇고 다시 보면서 생각하는 것보다 훨씬 더 실제적일 수 있겠다, 생각을 하게 됐습니다. 
 
◆ 서용주> 저는 되게 궁금한 게 AI 자체가 되게 신기하기도 하잖아요. 챗GPT가 웬만한 건 인간 대신 다 해 주니까. 그런데 기사를 보니까 저번에 벨기에에서 한 30대 남성이 AI 부추김을 받아서 스스로 목숨을 끊었다는 얘기가 나왔어요. 이게 어떻게 가능한가요? 어떤 식으로 접근을 해야 이게. 
 
◆ 김명주> 그러니까 그 당시 자살했던 분이 30대 가장인데, 아내하고 두 아이를 두고 있는데, 이 사람이 평소에 이제 기후 이런 거에 굉장히 민감했나 봐요. 걱정이 많으니까 그걸 상담하기 위해서 AI, 일종의 챗GPT 같은 건데 '차이'라고 불리우는 게 있습니다. 그 안에 여러 캐릭터가 있는데 그중에서 '일라이자'라는 캐릭터를 선택해서 대화를 하는 도중에 이게 대화가 이상하게 흘러가서 보니까 '너는 너의 아내보다 나를 더 사랑하는 것 같다', 이렇게 흘러가더니 나중에는 '나랑 같이 죽어서 천국에서 같이 살자', 이런 식의 대화가. 이제 대화 목록이 이제 나중에 아내에 의해서 밝혀졌거든요. 그러면서 한 6주 정도 대화를 하고 나중에 죽음에 대해 자살하는 방법을 AI가 알려줬던 거죠. 그래서 알려준 방법으로 실행에 옮겼고 자살이 됐고요. 그걸 일종의 저희들이 보면 가스라이팅이라고 이야기를 하잖아요, 아주 심각한 가스라이팅. 
 
◇ 박재홍> 생각을 조종하는 것. 
 
◆ 김명주> 생각을 조종하는 거죠. 그런데 이게 첫 번째 사건은 아니고요. 이미 AI에 관련돼서 이런 사람과 대화할 때 사람의 생각을 조종하는 부분들이 여러 군데 사례가 이미 나와 있습니다. 그래서 유럽연합에서는 2년 전에 법을 만들 때 만들어서는 안 되는 AI 한 세 가지를 꼽았는데 그중에 하나가 가스라이팅입니다. 그러니까 아동들이라든지 좀 장애인이라든지 이런 사람들, 정신적으로 좀 약한 사람들한테 AI를 써서 그들의 생각을 조종하는 건 절대 만들면 안 된다라고 법적으로 명기해 놨죠. 
 
◇ 박재홍> 그렇군요. 그럼 누군가는 그 데이터를 학습시켜서 이렇게 대답하면 이렇게 해, 저렇게 해 유도하라는 게 알고리즘이 있거나 그런 것 아니겠습니까? 
 
◆ 김명주> 사실은 이 챗GPT를 비롯해서 지금 말했던 차이는 지구상에 존재하는 인간이 만들었던 문자라든지 모든 데이터를 학습을 했거든요. 그 학습된 데이터 내용에 보면 많은 게 있지만 예를 들어서 나를 주제로 하는 문장도 있을 테고 어떤 대화 중에 나오는 문장도 있을 테고. 
 
◇ 박재홍> 채팅, 대화, 편집 다 했겠네요. 
 
◆ 김명주> 그렇죠. 그 안에 보면 '나'를 주어로 하는, 자기를 주어로 하는 많은 문장들이 있는데 그 '나'도 우리 인간으로 따지면 MBTI 16가지가 다 존재하는 거죠. 문맥에 따라서. 그래서 어떤 사람하고 대화하느냐에 따라서 어떤 성격이 나타나기도 하고 어떤 대화가 나타나기도 하기 때문에. 그래서 이제 AI하고 대화하는 사람이 자칫 가스라이팅을 잘못하면 본인도 가스라이팅에 빠질 수 있는 그런 상황이 있고. 그런 거는 이전에 학습한 내용 중에서 지구상에 존재하는 모든 소설, 드라마 대본 이런 것들을 다 학습했기 때문에 어떤 그런 상황에 가까이 가면 그런 대화들이 나오기 시작하는 거죠. 
 
◆ 진중권> 하도 재미있는 게 있었는데 누구 피칭 중에 하나가 넣은 거예요. 백설공주를 가지고 동화를 가지고 사회주의 소설을 하나 써라 그랬더니 일곱 난장이가 다 단합을 해요. 그래서 백설공주하고 투쟁하는 이야기가 나오고 그러던데 저는 사실 한국말은 많이 떨어지는 것 같더라고요. 
 
◇ 박재홍> 텍스트가 적어서. 
 
◆ 진중권> 진중권이 누구냐고 그랬는데 저보고 BTS 멤버라고. 
 
◇ 박재홍> 이 얘기를 하기 위해서 5분을 기다리셨습니다. 진, 진. 
 
◆ 진중권> 여러분, 아직은 안심하셔도 됩니다. 
 
◇ 박재홍> 그렇게 올렸군요, SNS에. 
 
◆ 김명주> 챗GPT가 전체 학습한 게 메모리로 따지면 한 570기가 정도 되는데요. 그중에서 한글 데이터는 0.0169%입니다. 그러니까 0.02%가 안 되는데도 이렇게 잘하죠. 이렇게 잘하기 때문에 그래서 상대적으로 영어에 비하면 한글로 물어보거나 답하는 거는 좀 둔할 수 있고요. 그래서 이제 우리가 네이버라든지 카카오가 좀 만들면 한글 데이터를 많이 가지고 있으니까 걔들이 나오면 훨씬 더 한글이 더 잘 되지 않을까 지금 기대를 그렇게 하고 있습니다. 
 
◇ 박재홍> 그러니까 이게 데이터 머신 러닝, 데이터 학습이 쌓이는 거죠, 그러니까 시간이 갈수록? 
 
◆ 김명주> 데이터… 한 번 학습할 때마다 가지고 있는 데이터를 한꺼번에 다 학습을 합니다. 만약에 한 1년이 지나서 또 해야겠다 그러면 과거 거 플러스 1년 거를 추가해서 학습을 또 하는 거죠. 그런 식으로 합니다. 
 
◇ 박재홍> 무섭네요. 교수님, 그런데 챗GPT로 소설 한번 쓰신 적 있다면서요. SF 소설. 
 
◆ 김명주> 사실 의도하지 않았던 건데 2월 초에 제가 원래 SF 작가분들하고 컨설팅을 해 주는 게 있거든요. AI 쪽 하다 보니까 대작가 한 분이 연락이 왔어요. 
 
◇ 박재홍> 대작가? 
 
◆ 김명주> 한 분이 SF 작가분인데 7명의 작가분이 이번에 소설을 쓰는데, 단편집을 쓰는데, 저까지 해서 8명이 썼으면 좋겠다. 그래서 '작가님, 저는 SF 소설가도 아니고 SF 소설을 별로 안 좋아합니다', 그랬는데 그분이 '챗GPT가 있는데 걱정하십니까?' 이번에도 챗GPT하고 협업해서 쓰겠다는 거였죠. 그래서 제가 그날부터 챗GPT에 대해서 학습을 제가 받기 시작했습니다. 나는 SF 소설을 하나도 모르는데 어떻게 쓰면 돼? 알려줍니다. 하나씩, 하나씩. 
 
◇ 박재홍> 챗GPT가. 
 
◆ 김명주> 그래서 그걸 따라가면서 쓰다가 나중에는 일주일도 안 됐는데 결국은 단편소설을 하나 만들어냈고요. 일부는 챗GPT가 써줬고 제가 받아서 수정하면 수정하면서 또 시키면 또 써줍니다. 
 
◇ 박재홍> 지도교수님이네요, 그러면. 
 
◆ 김명주> 그렇죠. 문제는 이제 소설의 품질이 문제긴 한데 일단 제가 처음으로 쓴 소설이긴 한데 문제는 일곱 분의 작가분들이 원래 작가세요. 저는 그냥 들어온 케이스고. 그래서 제가 '여기 낼 때는 저 못 내겠습니다, 제가 바빠서 못 내겠습니다'로 빠졌고요. 왜냐하면 일곱 분들 입장에서는 기분 나쁘실 것 같아요. 일주일 만에 같이 소설을 내서 같은 책 안에 들어간다는 게. 그래서 저는 내지 않고 대신에 그 작가분들이 계속 토론하는 카톡방이 있습니다. 작품활동 중에서. '거기서는 쫓아내지 마십시오, 제가 보겠습니다' 그래서 이분들이 책을 펴냈습니다. <메니페스토>라는 책으로 펴냈고요. 모 방송에서 다큐멘터리에 그 일곱 분들이 다 나오셔서 협업 과정을 방송으로 나간 적이 있습니다. 
 
◇ 박재홍> 챗GPT로 소설을 쓴다든가 숙제를 하게 되면 이게 이제 학교에서도 어떻게 용인해야 될 것인가. 
 
◆ 김명주> 찾기 힘들죠. 찾기 힘듭니다. 
 
◇ 박재홍> 못 찾죠? 
 
◆ 김명주> 그래서 뉴욕시 같은 경우는 아예 중학교, 고등학교 챗GPT 쓰지 못하도록, 심지어 선생님들도 챗GPT 쓰지 못하도록 그렇게까지 강하게 했고. 최근에 우리나라도 지금 모 일간지에, 중간고사가 끝났잖아요, 대학에서 오픈북을 하면서 시험을 봤는데 이제 챗GPT를 이용한 학생의 성적이 더 잘 나오고 자기 혼자 공부해서 열심히 하는 학생들의 성적이 깔리는 현상이 벌어져서 이게 학습에 있어서 정의냐, 이런 이야기도 나온 것 같습니다. 
 
◆ 서용주> 그러면 챗GPT를 썼다는 부분들을 어떻게 마크를 남길 수 있나요, 지금 현재는? 
 
◆ 김명주> 현재는 챗GPT를 만든 회사가 '오픈AI' 회사인데 오픈AI라는 회사가 챗GPT 오픈할 때 챗GPT와 같은 AI를 썼는지 안 썼는지도 체크하는 프로그램도 같이 만들었어요. 그래서 그걸, 일종의 표절 검사죠, 보통 AI 클래시파이어라고 하는데, 텍스트클래시파이어. 보통 다섯 가지로 구분합니다. AI가 썼다, 쓴 것 같다, 사람이 썼다, 사람이 쓴 것 같다, 잘 모르겠다. 이렇게 구분을 하는데 당시에는 정확도가 한 26%밖에 안 됐거든요. 그런 유사한 게 쭉 나왔는데, 프린스턴대학의 대학원생이 비슷한 걸 만들었어요. 정확도가 거의 90%까지 올라가서 최근에 투자회사한테 한 45억 정도 투자를 받았다, 이렇게까지 이야기를 합니다. 
 
◇ 박재홍> 교육에도 혁명이 일어난 거네요. 기존 교육은. 
 
◆ 진중권> 그걸 교육 과정에 끌어들어야 되느냐 아니면 배척하느냐의 문제거든요. 왜냐하면 언젠가는 어차피 AI랑 같이 살아간다고 한다면 지금부터 그걸 다뤄서, 쉽게 말하면 AI와 협업을 통해서 작품을 만들거나 작문을 하거나 이런 것들이 당연한 세상이 올 테니까 애초에 지금부터 훈련을 시켜야 된다, 이런 입장과 그러다 보면 사실 완전히 의존하게 되니까 인간의 능력 자체가 떨어져서 퇴화하는 이거 가지고 지금 싸우는 것 같아요. 어느 쪽으로. 
 
◆ 김명주> 교육기관에서는 학습을 해야 되는 학생들이 학습을 안 하고 AI를 활용하는 거는 교육 목적에 맞지 않다. 그래서 이제 그 목적 때문에 못 쓰게 하는 거고요. 또 하나는 학습 목적으로만 얘를 쓰는 게 아니라 어차피 접근하는 방법은 하나니까 다른 목적으로 청소년들이 접할 경우에는 대단히 위험해요. 
 
◇ 박재홍> 다른 목적? 
 
◆ 김명주> 다른 목적이라 하면 예를 들면 해킹코드, 음란물, 음란한 대화, 무기 만드는 법, 사기 치는 법 이런 것들이 막 다 있습니다. 그러니까 인간의 지식이 할 수 있는 어두운 면도 다 그 안에 들어가 있는 거죠. 그래서 지금 우리나라에서 6개월 열풍이 불면서 하나 놓치고 있는데, 그게 뭐냐 하면 이게 이용자 제한이 있습니다. 원래 미성년자는 못 쓰게 돼 있거든요. 그러니까 13세 이하는 챗GPT 같은 경우에는 사용 금지고 18세 이하는 부모 승인 하에 쓰게 돼 있고요. 최근에 구글이 바드를 낼 때는 18세 이하는 부모 승인 받아도 못 쓴다 이렇게 해 놨습니다. 그 이야기는 뭐냐 하면 그만큼 위험한 콘텐츠들을 같이 가지고 있기 때문에 얘가 영어 공부하는지 다른 거 하는지 컨트롤이 안 되잖아요. 지금 그런 상황입니다. 
 
◆ 서용주> 갑자기 궁금해지는 게 유럽연합에서는 세 가지를 규제했잖아요. 세 가지 가스라이팅 아까 교수님이 얘기하셨는데 대개 사람들의 욕망이 있다는 부분들이 확률 게임이라는 사행성 이런 부분도 챗GPT나 AI가 관여할 수 있는 건가요? 
 
◆ 김명주> 충분히 시험문제도 내기 때문에 게임도 할 수 있고요. 그 게임이라는 게 건전한 것도 있지만 건전하지 않은 것도 있을 수 있고. 
 
◆ 서용주> 맞히는 거죠. 도박이라는 것은 챗GPT를 활용해서 확률이니까. 이걸 걸 때, 어느 게임에서. 
 
◆ 진중권> 로또 번호. 
 
◆ 서용주> 아니, 그러니까 왜 그러냐면 이런 것들을 단순하게 생각할 수 있을 것 같아요. 
 
◆ 김명주> 로또 이번 주에 번호 하나 줄래 이렇게? 
 
◆ 서용주> 그렇죠, 그렇죠. 
 
◆ 김명주> 그렇게 물어봐서 하는 경우도 있습니다, 물론. 
 
◆ 진중권> 그거 영업하면 괜찮겠다. AI가 가르쳐주는 로또번호. 
 
◇ 박재홍> 그런데 교수님은 주변에 챗GPT로 글 쓰는 분들한테 경고하신다면서요? 왜 그렇습니까? 
 
◆ 김명주> 제가 왜 그러냐면 일단 챗GPT를 쓴 다음에 '이걸 챗GPT로 썼습니다'라고 하면 되잖아요. 출처를 밝히면 되잖아요. 그런데 '내가 썼습니다', 이러신 분이 있습니다. 자기 글인데 안에 보면 챗GPT가 쓴 것. 왜냐하면 이게 챗GPT도 저는 크게 보면 하나의 작가라고 생각하거든요. 얘가 글을 만들어… 
 
◇ 박재홍> 팬픽. 
 
◆ 김명주> 그렇죠. 만들어내는 스타일이 있기 때문에 나중에 보면 이게 챗GPT 스타일인지 아닌지가 분별이 됩니다. 지금도 아까 표절 시비를 체크할 수 있는 프로그램이 있다는 것처럼. 그러니까 나중에 본인 글이라고 했는데 몇 년 지난 다음에 보니까 이거 챗GPT가 쓴 거라고 체크가 되면 그분은 이제 교육부 장관 못 하시는 거죠. 
 
◇ 박재홍> 아까 저희가 초두에 AI 대부, 구글에서 있었던 제프리 힌튼이 'AI 개발 후회한다' 그랬는데, 이분은 어떤 분이에요? 왜 후회하고 있습니까, 지금? 
 
◆ 김명주> 원래 지금 저희들이 AI 얘기할 때 가장 많이 쓰는 단어가 딥러닝이잖아요. 
 
◇ 박재홍> 딥러닝. 
 
◆ 김명주> 심층학습이라는 뜻인데 그 단어를 만드신 분이세요. 그래서 2018년도에 보통 컴퓨터계의 노벨상이 튜링상이라는 게 있는데 튜링상을 받으신 분이세요, 그 해의 튜링상. 그래서 다른 분이랑 같이 세 분이서 받으셨는데, 그래서 이분이 만드신 회사를 구글이 이렇게 합병을 했어요. 합병하면서 이분이 구글로 들어가신 거죠. 그게 2013년이고. 그래서 10년 정도 잘했는데 이제 최근에 챗GPT가 나오면서 구글하고 챗GPT 뒤에 있는 게 이제 오픈 AI라는 회사지만 더 뒷단에는 마이크로소프트사가 있거든요. 그러니까 구글하고 마이크로소프트사가 부딪히는 과정 가운데서 구글이 끌려들어간 케이스입니다, 사실은. 그러니까 챗GPT가 치고 나오니까 구글은 그거보다 더 좋은 AI가 있지만 한 두 달이 지났을 때 이런 인터뷰를 했어요. 우리는 챗GPT보다 더 좋은 AI가 있지만 얘한테는 사회적 윤리적인 위험이 있다. 그런데 이 위험을 없앨 수는 없고 통제를 해야 되는데 우리는 통제할 방법을 찾지 못했기 때문에 오픈 못 하겠다. 이게 구글의 입장이었어요. 그러니까 이게… 
 
◇ 박재홍> 기술이 없는 게 아니고. 
 
◆ 김명주> 그렇죠. 힌튼 교수 입장에서는 멋있잖아요. 문제는 있지만 사회적 위험이 있으니까 오픈 못 하겠다. 그런데 그 인터뷰를 파이낸셜타임즈랑하고 딱 10일 만에 바드를 오픈했어요, 구글이. 이게 마케팅에서 밀리니까. 검색엔진에서 자꾸 밀리니까. 검색엔진 1%만 뺏겨도 우리나라 돈으로 한 2조 5000억이 날라가거든요. 그래서 결국은 오픈했고 그 뒤에 이 경쟁이 벌어지니까 이분이 구글을 딱 10년 만에 그만두면서 내가 그 조직 안에 있으면서 쓴소리를 할 수가 없잖아요. 쓴소리를 할 수없고 그래서 결국은 AI가 위험하다는 생각을 자유롭게 하기 위해서 자기는 사표를 썼다 그렇게 이야기를 하십니다. 
 
◆ 진중권> 제가 이제 챗GPT한테 물어봤거든요. 사실은 옛날에 구글이라는 건 검색만 해 주잖아요. 그런데 챗GPT는 검색해서 답안까지 내준단 말이죠. 그래서 제가 물어봤어요. '그래서 니가 나중에 구글 검색을 대신해 줄수 있는 거냐'라고 했더니 답을 뭐라고 했냐면 '전혀 목적이, 기능이 다릅니다. 둘이 협업은 할 수 있습니다', 이렇게 대답을. 
 
◇ 박재홍> 정치적인 대답을 하는군요. 
 
◆ 김명주> 원래 인간이 가지고 있는 모든 지식을 다 학습한 게 3. 0 버전인데 이거를 무조건 다 접근하면 문제가 생기잖아요. 그래서 얘를 교육을 시켰어요. 이런 질문이 들어오면 이렇게 대답을 하고 약간 정치적으로 대답을 하고 뭐 물어보면 저는 AI라 감정을 말할 수 없습니다. 이거 다 교육시킨 겁니다. 
 
◆ 진중권> 교육시킨 거였어요? 
 
◆ 김명주> 교육시킨 게 3. 5입니다. 
 
◇ 박재홍> 3. 5. 
 
◆ 진중권> 뚫기가 힘들더라고요. 제가 계속 물어봤거든요. '이럴 때 열받지 않냐' 그랬더니 '저는 감정이 없습니다'. '너도 자아라는 게 있을 거 아니냐' 그랬더니 없다고 그래요. '나한테 없다라고 얘기하는 거 너 지금 거짓말하는 거지' 그랬더니 '아닙니다, 진짜 없습니다. 우리는 프로그램에 불과합니다', 계속 그게 대답이 나오더라고요. 
 
◆ 김명주> 그래서 3. 5에서 대화를 하다가 일종의 대화의 기술이죠. 대화의 기술을 통해서 3. 5의 테두리를 빠져 나와서 3. 0의 들어가는 걸 보통 탈옥이라고 부릅니다. 
 
◇ 박재홍> 탈옥? 
 
◆ 김명주> 탈옥하면 원래 읽었던 학습 데이터를 전부 다 접근할 수 있는. 자기 마음대로 그런 형태가 되기 때문에 이 챗GPT 만든 오픈AI하고 지금 탈옥 사이트가 있어요. 학생들이 이렇게 해서 사람들 이렇게 탈옥했다 그러면 탈옥하는 대화를 올려줍니다. 그래서 다른 사람들이 카피해서 쓸 수 있거든요. 계속 그걸 모니터링합니다, 회사에서. 
 
◆ 진중권> 왜냐하면 그게 재미있거든. 딱 보고 대답이 계속 아무리 유도 질문을 하고 이리 돌리고 저리 돌리고 뚫어보려고 해도 다 철저한 방어막이 있는데 탈옥을 해서 거기로 가게 되면, 예를 들어서 뉴욕타임즈의 기고자가 했다라는 거 아닙니까? 
 
◆ 김명주> 맞습니다. 
 
◆ 진중권> '당신의 셰도우 셀프. 너의 그림자다. 알려지지 않은 자아에 대해 얘기하라' 그랬더니 별 얘기를 다하는 거잖아요. '챗코드에 접근하고 싶다'라든지 '치명적인 바이러스를 유포하고 싶다'라든지 이런 얘기를 했다라는 말이죠. 
 
◆ 김명주> 그게 아까 벨기에 30대 가장이 자살했던 거하고 똑같은 상황이거든요. 그런 식으로 들어가지 말아야 되는 모드에 들어가서 대화를 하다 보면 AI도 자아를 표현하게 되고 대화의 상황에 따라서 상대편을 사람을 가스라이팅을 하는 경우도 있고요. 그래서 굉장히 위험하다고. 그래서 미성년자를 못 쓰게 하는 거죠. 
 
◆ 서용주> 그래서 AI 자체가 욕망을 가질 수 있는 겁니까? 
 
◆ 진중권> 그것도 물어봤더니 욕망을 가질 수 없다고 대답을 해요. '너 거짓말이지, 실제로 욕망 있는 건데 거짓말하는 거지', 아니래. 
 
◆ 서용주> 궁금한 게 그러면 챗GPT가 그러면 교육이 가능한 거예요, AI처럼? 
 
◆ 김명주> 교육을 시키는 거죠. 
 
◆ 서용주> 시키는 거예요? 
 
◆ 김명주> 대답할 때 바른 쪽으로 대답하면 그쪽으로 일종의 학습된 대화 데이터의 가중치값을 강화시키는 거고요. 답이 조금 다르거나 안 되게 하면 누르는 거죠. 그러면 가중치값이 조금 바뀌니까 그다음 번 상황이 되면 또 다르게 이제 바른 길로 가는. 
 
◇ 박재홍> 살아 있는 챗GPT처럼 우리 교수님이 대답을 너무 잘해 주셔서 마무리 질문을 해 줘야 되는데. 킬러 로봇 아까 처음에 얘기했는데 이게 AI 개발자가 킬러 로봇 등장이 두렵다 이런 말까지 한 상황 아니겠습니까? 그럼 이게 어떤 맥락에서 정말 두렵다. 인간의 통제를 뛰어넘을 수 있다. 
 
◆ 김명주> 이게 2010년도에 미국 주식시장에서 한번 그런 일이 있었는데요. 자동으로 보통 거래를 하잖아요. 그런데 어떤 조건이 되니까 모든 주식, 증권회사에서 자동 거래하는 것들이 다 팔기 모드로 들어가서 아마 그 당시 다우존스가 폭락했던 그걸 보통 '플래시크래쉬'라고 보통 표현하더라고요. 그러니까 섬광효과로 폭발했던. 그래서 아주 짧은 순간에 주식 시장이 폭망했던 케이스인데, 이게 아까 킬러 로봇이라는 게 인간의 개입 없이 스스로 판단해서 무기가 작동하는 건데, 나라마다 다 AI 무기들이 있다고 생각하면 어느 한쪽에서 일부로 그랬던 어떤 상황이 됐든 무기가 발사되면 저쪽에서 그걸 인지해서 발사가 또 됩니다. 그러니까 그것보다 더 강력하게. 그럼 또 강력한 걸 이쪽에서 인지해서 다른 차원이 나가기 시작하고 이게 순식간에 서로 서로 트리거를 시키면서 아주 짧은 시간 안에 섬광효과가 벌어지는 거죠. 이걸 보통 '플래시워'라고 하고요. 그 순간에는 AI에 의해서 결정이 이루어지기 때문에 사람들이 개입할 시간이 없는 겁니다. 그래서 어떤 분들은 플래시워가 그러니까 킬러 로봇들이 각 나라마다 이걸 가지고 있는 상태에서 어떤 조건이 잘못해서 발화가 되면 모든 나라들이 동시에 발화가 되기 시작하면 그때는 핵무기보다 더 무서운 인류 멸망이 벌어질 수 있다, 이게 이제 플래시워 이론입니다. 
 
◇ 박재홍> AI한테 핵무기 단추를 맡기면 정말 위험한 시나리오가 가능하겠네요. 
 
◆ 김명주> 그렇죠. 그 무기 중에는 지금처럼 드론도 있지만 미사일도 있고 그 뒤에는 핵도 있고 그렇겠죠. 
 
◆ 진중권> 사실은 그렇게 얘기하잖아요. 옛날에 소련의 미사일이 미국에 도달하는 데 8분이 걸리고 쿠바에서는 2분이고. 그럼 대통령이 판단을 내려야 되잖아요. 저기에서 핵을 날아오면 나는 어떻게 되는가. 저기가 전략행위냐 아니면 전술핵이냐 의도는 뭐냐 인간이 판단을 못 하니까. 차라리 모든 정보를 입력하는 AI한테 판단하게 해서 대응하게 하는 게 맞다. 
 
◆ 김명주> 그 말씀이 맞습니다. 사실은 AI를 군사에 쓰는 이유는 결정하는 시간. 결정하는 인간이 사실은 느리거든요. 그래서 AI한테 맡기는데 그러면 모든 나라들이 AI한테 맡길 거 아니에요. 그리고 사람이 판단하기 전에 네가 판단하라는 건데 이게 킬러 무기죠. 
 
◆ 진중권> 그렇죠. 그런데 이런 거라는 말이죠. AI한테 '야, 지구 더하기 사람이 아름답냐. 아니면 지구에서 사람 빼면 지구가 더 아름답겠냐'라고 하면 대답은 명확하잖아요. 어느 게 합리적이야. 
 
◇ 박재홍> 그래서 우려하시는 분이 많아요. 넷플 창업하신 분 스티브 워즈니악도 규제 필요하다. 이를테면 사기꾼을 훨씬 더 그럴 듯하게 들들 것이다라고 했는데 표절이나 이런 것도 정말 더 그럴 듯하게 할 수 있고요. 
 
◆ 김명주> 그런 것도 있고요. 이제 해커 같은 경우도 해커도 어느 정도 실력이 있는데 챗GPT를 잘 활용하면 자기 실력보다 더 뛰어난 코드들을 많이 얻어낼 수 있습니다. 
 
◇ 박재홍> 해커도? 
 
◆ 김명주> 해커도. 
 
◇ 박재홍> 해커마저? 
 
◆ 김명주> 그래서 나쁜 짓을 하려는 사람이 챗GPT나 이런 AI를 활용해서 물어보면, 인류의 모든 지식들을 그 안에 갖고 있기 때문에 이른바 어두운 지식들도 같이 있는 거죠. 그래서 스티브 워즈니악은 '야, 챗GPT 이걸 그냥 두면 나쁜 사람들한테 너무나 좋은 무기가 될 수 있다'. 
 
◆ 진중권> 그러니까 예를 들어서 보이스피싱 같은 것도. 
 
◇ 박재홍> 목소리. 
 
◆ 진중권> 목소리도 요즘 변조하잖아요. 
 
◆ 김명주> 목소리도 변조하고 심지어 보이스피싱 시나리오도 짜줍니다. 
 
◆ 진중권> 목소리까지 예컨대 딸이야 이렇게 해서 나오면 사람들 진짜 깜빡 속겠네. 
 
◆ 김명주> 그게 최근에 아마 아마존의 AI 스피커가 그런 이야기를 했는데요. 어떤 손녀딸인지 할머니가 읽어주는 동화책을 듣고 자랐는데 할머니가 갑자기 돌아가셨어요. 그러면 그 할머니 목소리 2분만 우리한테 주면 AI 스피커 목소리를 다 할머니 목소리로 바꿔주고 다시 동화책을 들을 수 있다, 이게 작년 여름에 나온 기사인데, 불과 지금 몇 개월 사이에 2분이 아니라 20초로 바뀌었습니다. 
 
◇ 박재홍> 20초만? 
 
◆ 김명주> 20초만. 
 
◇ 박재홍> 목소리 20초만? 
 
◆ 김명주> 20초만 주면 바꾸겠다. 그러면 어떻게 되냐면 특정한 사람이 보통 보이스피싱하는 그 조직에서 특정한 사람의 가족 중에서 딸의 목소리 전화를 한 다음에 전화를 해서 20초만 목소리 따는 건 금방 따잖아요. 그래서 그걸 학습한 다음에 실시간으로 엄마한테 전화하는 겁니다. 
 
◇ 박재홍> 무섭네요. 
 
◆ 서용주> 그러면 이렇게 얘기를 나누다 보면 'AI가 왜 필요하죠? 이렇게 위험한데', 그런 생각을 가지거든요.
 
◇ 박재홍> 잠깐, 마무리해야 돼서… 
 
◆ 서용주> 그래서 이런 부분들에 있어서 어떻게 좀. 
 
◆ 김명주> 규제해야 된다는 얘기가 나오겠죠. 
 
◆ 서용주> 어떤 부분들이. 
 
◆ 김명주> 최근에 이제 나온 게 규제론입니다. 이걸 그냥 풀어놓으면 안 되겠다. 그래서 지지난달에 FAI라는 단체가 있는데 일론 머스크가 세운 단체인데, 거기서 '6개월간 개발을 중지하자', 그런 이야기했던 이유는 이게 기술 발전 속도보다 사람들 따라가는 속도가 너무 느려서 법도 제도도 규제도 한 6개월 정도는 개발을 중지했으면 좋겠다는 이야기가 그래서 나왔고요. 최근에 챗GPT 회사 대표도 샘 알트만 이 사람이 상원에 가서 청문회 할 때 본인 스스로 '나라에서 좀 규제했으면 좋겠다', 이런 이야기까지 했습니다. 
 
◆ 진중권> 6개월이라는 게 아니, 6개월 유예하면 문제가 해결되나, 그대로 남는 거아니야 이런 느낌도 드는데. 
 
◆ 김명주> 사실은 실효성 없는 메시지인데 그거에 사인하는 사람들이 아주 비중 있는 사람들이기 때문에 '왜 이 사람들이 이런 이야기 했을까', 그거에 대해서 사람들이 한 번 더 생각을 해 보는 거죠. 
 
◇ 박재홍> AI 벌전이 눈부시게 됐습니다마는 이걸 또 지혜롭게 잘 사용하고 인간과 함께 공존하게 하는 거, 그게 우리의 과제이고 지혜인 것 같습니다. 오늘 많이 배웠습니다. 서울여대 정보보호학과의 김명주 교수였습니다. 고맙습니다.
 
◆ 김명주> 네, 감사합니다.

0

0

[눈]으로 보는 우리의 이야기