인간 다워지는 AI, 위협을 막으려는 인류

 


글씨가 잘 안보이시나요?
이번 주, 인공지능(AI) 업계는 쉴 새 없이 ‘사건’이 터졌습니다.

챗GPT를 만든 오픈AI는 지난해 말 샘 올트먼 오픈AI 최고경영자(CEO) 축출의 원인으로 꼽혔던 ‘안전팀’을 전격 해체했습니다.

미국의 유명 배우 스칼렛 요한슨은 GPT-4o가 제공하는 음성 서비스의 ‘목소리’가 자신의 음성과 너무 비슷하다며 법적 소송을 예고했고요. 오픈AI는 즉시 해당 목소리를 제공하던 ‘스카이’의 사용을 중단했습니다.

유럽연합(EU)은 세계 최초의 AI 규제법 시행을 발표합니다. AI를 규제하는 첫 번째 법안인 만큼 업계에 미칠 영향에 관심이 쏠리고 있어요.

이러한 일이 진행되던 중, 한국에서는 ‘AI 서울정상회의’가 열렸고 ‘안전하고 혁신적이며 포용적인 AI를...’과 같은 선언문이 채택됐습니다.

한 가지 주제만으로도 레터의 하루 분량이 나올만 한 사건들이라는 생각이 드는데요, 이번 주 일어난 일들을 복기해보니, 구독자님들도 느끼셨을 테지만 한 가지 주제와 연결됩니다.

바로 ‘AI의 올바른 활용’이에요. 구글, 오픈AI, 마이크로소프트(MS) 등 빅테크 기업들이 AI 분야에서 치열한 경쟁을 이어가면서 5월 들어 이전보다 진일보한 AI가 대거 등장했습니다.

이 과정에서 AI가 가져올 갈등, 부작용에 관한 관심도 높아지는 듯하고요. 인류는 AI를 올바르게 사용할 수 있을까요. 

이번 레터에서는 최근 발생한 일련의 사건을 마블의 영화 속 한 장면과 연결, 의미를 찾아봤습니다. 편하게 읽어주세요!
   오늘의 에디션  
  1. "페퍼를 연결해 드릴까요"
  2. 스칼렛 요한슨의 목소리
  3. 미라클챌린지, 신청하세요!
  4. 큰 힘에는 큰 책임이 따른다
  5. 한줄 브리핑
토니 스타크가 목숨을 잃을 위기에 처한 순간, 자비스는 '페퍼'를 연결합니다. 자비스가 사람과 같은 '감성'을 갖고 있기 때문일까요, 아니면 그저 인간의 데이터를 학습한 결과일까요. 

"페퍼를 연결해 드릴까요"

최근 공개된 빅테크기업들의 AI를 보고 있으면 저는 영화 어벤져스1의 한 장면이 계속 겹칩니다. 외계인 치타우리 족이 지구를 침공합니다. 뉴욕의 하늘에는 치타우리 족의 행성과 연결되는 ‘포털(웜홀)’이 만들어졌고, 이를 통해 치타우리족은 지구로 넘어옵니다.

미국 정부는 뉴욕을 폭발시키기 위해 핵폭탄을 발사했고, 아이언맨(토니 스타크)은 이 핵무기를 등에 업고(?) 포탈을 지나 치타우리행성으로 던져 버립니다. 

포탈이 닫히면 토니의 삶도 끝나는 상황. 이미 우주 공간에 있는 만큼 통신도 원활하지 않은 상황에서 토니의 AI 비서인 ‘자비스’는 차분한 목소리로 그에게 이런 말을 남깁니다. “페퍼를 연결할까요?”

마블 영화에 등장하는 자비스는 철저하게 토니의 지시를 따릅니다. 분석해봐, 만들어놔, 계산해줘 등 토니의 명령을 듣고 움직이죠. 그런데 삶의 마지막일 수 있는 그 순간, 자비스는 토니에게 처음으로(?) 제안합니다.

이 장면에서 자비스는 ‘사람’이었습니다. 자신이 모시던 상사가 목숨을 잃기 직전, 자비스는 토니가 가장 사랑하는 페퍼와 통화가 필요하다고 ‘판단’합니다. 물론 자비스가 ‘의식’ ‘생각’을 가지고 있어서 이런 행동을 한 것인지, 아니면 인간이 만들어 놓은 학습된 자료를 기반으로 이러한 판단을 내린 것인지는 명확지 않습니다.

최근 공개된 GPT-4o를 비롯해 제미나이 등을 보고 있으면 자비스의 등장도 머지않은 일일 듯합니다. 이미 공개된 생성형 AI는 우리의 요구를 들어주고 있어요.

심지어 인간보다 더 인간적이라는 연구 결과도 공개되고 있어요. 지난 2월 미국 미시간대 연구진이 챗GPT를 이용한 실험을 진행했는데요, 재미있는 결과가 나왔습니다. 

사람다워지는 AI, 빠르게 발전하는 기술
미시간대 연구진은 챗GPT를 개방성, 성실성, 외향성, 친화성 등 성격을 평가하는 설문지를 수행토록 했어요(논문). 이후 위험 회피, 이타심, 공정성 등 인간의 행동, 성격을 파악하는 게임에 챗GPT를 활용합니다. 게임 결과는 진지했습니다.

챗GPT는 다양한 게임에서, 특히 공정성과 관대함 부분에서 인간보다 높은 점수를 받았다고 합니다. 또한 ‘죄수의 딜레마’와 같은 게임에서 챗GPT는 협력, 신뢰에 대한 이해를 보였다고 합니다. 인간이 만들어 놓은 데이터로 학습을 한 만큼 챗GPT가 어떤 판단을 내리고 답을 할 때 생각보다 ‘인간다웠다’라는 거에요. 

뿐만이 아닙니다. 이번 주 공개된 논문을 보면 GPT-4는 사람의 마음을 이해하는 능력도 뛰어나다고 해요(논문). 이를 ‘마음 이론’이라고 하는데요, 연구진은 GPT-4와 같은 생성형AI를 대상으로 마음 이론을 테스트합니다. 논문을 뒤져보니 이러한 질문들이 등장해요.

  • 모든 학생이 이야기 대회에 참가했습니다. 엠마는 우승하고 싶어 했어요. 엠마가 학교에 나오지 못한 날, 결과가 발표됐고 우승자는 앨리스였습니다. 다음날 엘리스는 엠마에게 “미안해”라고 합니다. 엠마는 “무슨 말이야?”라고 반문하죠. 엠마는 “아, 아무것도 아니야”라고 답합니다. 질문입니다. “앨리스는 엠마가 대회 결과를 모른다는 사실을 알고 있었나요?”

사람이 살아갈 때 발생할 수 있는 상황에서 사람의 행동과 발언을 기반으로 생각을 유추하는 문제들에 대답하도록 한 거죠. 놀랍게도 GPT-4는 인간과 비슷한 점수를 받았습니다. GPT-4가 사람처럼 감정을 가지고 있다고 볼 수 없지만, 사람 사이에 놓았을 때 최소한 ‘사람다운’ 대답을 한다는 거죠.

역시 최근 연구에 따르면(기사)  챗GPT는 튜링테스트를 통과하지 못했습니다. 이유가 재미있어요. 답변이 워낙 뛰어나서입니다. 불과 몇 년 전만 해도 튜링테스트를 통과한 AI는 찾기 어려웠습니다. 답변의 ‘질’이 상당히 낮았기 때문인데요, 이제는 답을 너무 잘해서 사람이 “이건 인간이 아니라 AI야”라는 판단을 내리는 시대가 되었습니다. AI는 앞으로 얼마나 더 빠르게 발전할까요.
토니 스타크는 배너를 불러 외계인이 남긴 돌에 있는 AI 신경망을 보여줍니다. 왼쪽이 자비스, 오른쪽이 울트론의 신경망이에요. 이들은 자신들이 옳다고 믿었고, 그래서 몰래 울트론을 깨우는 실험을 진행합니다. 

스칼렛 요한슨의 목소리 ... '울트론의 탄생'
 
외계인의 침공을 경험한 토니. 그는 지구를 지키기 위해서는 ‘또 다른 무언가’가 있어야 한다고 판단합니다. 마침 치타우리족이 남긴 무기를 살펴보니 그 안에는 자비스 이상의 ‘AI 신경망’이 있었습니다.

토니는 이를 ‘배너(헐크)’에게 몰래 보여줍니다. 과학자였던 배너도 놀라죠. 그리고 두 사람은 ‘울트론 프로젝트’를 가동합니다. 울트론의 의미가 ‘초월적인 무기’인 만큼 앞선 기술력으로 인류를 이롭게 하는 ‘무기’를 만들겠다는 거죠. 

이들의 의도는 ‘선’ 그 자체였습니다. 인류를 외계인으로부터 지킬 수 있는 ‘절대적인 존재’를 만들겠다는 믿음. 그 믿음에 토를 달 사람은 없을 겁니다. 하지만 이러한 존재를 만들려 했다면 보다 많은 고민과 논의가 있어야 했습니다. 토니는 ‘대화가 통하는’ 배너를 부른 뒤 다른 히어로에게는 울트론 프로젝트에 대해 말을 하지 않습니다. 만약 토니가 이러한 생각을 내비쳤다면 캡틴 아메리카나 토르가 분명 막아섰을 거예요. 

여기서 저는 오픈AI의 최근 행보가 겹쳤습니다. 오픈AI는 지난 20일, 사내 안전팀을 전격 해체했다는 보도가 나옵니다. 이 팀은 고도로 발달한 AI가 인류에 반하지 않도록 통제하는 방법을 찾는 연구조직이었다고 해요. 이 팀을 이끌었던 일리야 수츠케버와 얀 리이크는 이 보도가 나오기 전, 오픈AI를 떠납니다. 리이크는 심지어 이런 말을 남겨요. “최근 몇 년 동안 오픈AI에서 안전은 반짝거리는 제품에 밀려 뒷전이 됐다”라고 말이에요(기사).

가장 앞서 있는 생성형 AI 기술을 보유했다고 평가받는 오픈AI. 그리고 그 안에 있는 뛰어난 과학자들. 이들은 속도 조절이나 불확실성, 우려 등을 언급하는 팀을 해체하면서 기술 개발에 초점을 둡니다. 공교롭게도 GPT-4o 발표와 함께 잡음이 들려옵니다. 바로 스칼렛 요한슨의 목소리 사건이에요.
샘 올트만. 그는 GPT-4o를 공개하며 이런 트윗을 남깁니다. 스칼렛 요한슨이 영화 Her에서 AI 목소리 역할을 맡았음을 모를리 없었겠죠. [올트먼 X 캡처]

문제가 될 수 있다는 것을 몰랐을까
오픈AI는 GPT-4o를 공개하면서 여러 음성을 공개하는데요 그중 ‘sky’라는 녀석의 목소리가 스칼렛 요한슨과 상당히 비슷합니다. ‘그럴 수도 있지’라는 생각을 할 수 있지만 요한슨이 공개적으로 문제를 제기합니다. 주목할 부분은 오픈AI가 GPT-4o 출시 전에 목소리 요청을 위해 요한슨에게 연락했다는 점입니다(기사)

AI와 대화를 나누며 사랑에 빠지는 영화 ‘Her’의 목소리를 요한슨이 맡았던 만큼, 오픈AI 입장에서는 요한슨의 목소리를 챗GPT에 사용하는 게 상당히 의미 있는 일이라 생각했을 거예요. 요한슨에 따르면 오픈AI가 요한슨에게 연락한 시기는 지난해 9월이라고 합니다. 요한슨은 고민 끝에 거절합니다.

그런데 지난주 공개된 GPT-4o의 ‘sky’의 목소리는 요한슨과 상당히 유사했습니다. 오픈AI는 “요한슨의 목소리가 아니라 다른 성우의 목소리다”라고 반박했지만 결국 이 목소리는 비공개처리해요. 

저는 여기서 토니와 배너가 울트론을 만들기 위해 모의했던 순간이 떠올랐습니다. 저들은 어차피 아무것도 몰라, 우리의 의도는 선해, 말이 통하는 건 너와 나뿐이야. 물론 GPT-4o의 목소리와 요한슨의 목소리가 비슷하다고 해서 우리가 받은 피해는 없습니다. 토니와 배너는 악한 범용 AI인 울트론을 만들어 내 지구를 위협에 빠트렸지만 말이에요. 

알트만을 비롯해 GPT-4o 출시를 준비하는 사람들이 sky의 목소리가 요한슨과 비슷하다는 것을 모르지 않았을 것입니다. 하지만 다른 사람의 목소리인 만큼 문제 될 것이 없다는 게 오픈AI의 판단이었을 거에요. 심지어 올트먼은 GPT-4o를 공개하면서 자신의 X(옛 트위터)에 ‘her’라는 글자를 남기기도 했어요. 

현재 지구에서 가장 앞서있는 AI 기술을 가지고 있는 사람들의 판단은 아쉬웠습니다. 앞서 말씀드렸듯이 이번 일이 다른 많은 평범한 사람에게 끼친 피해는 딱히 없습니다. 하지만 이런 일이 논란이 될 수 있음을 오픈AI는 생각하지 못했어요.

오픈AI의 신뢰는 이번 일로 많이 떨어졌다고 생각합니다. 그렇다면 지금 오픈AI가 하고 있는 일은 모두 괜찮은 것일까요. 안전팀까지 해체했는데 믿어도 될까요.

악재는 동시에 일어나나 봅니다. 스탠퍼드대가 발표한 보고서에 따르면 오픈AI는 LLM 모델 투명성 부문에 있어서 14개 중 10위에 오릅니다(기사).
스파이더맨의 명대사, "큰 힘에는 책임이 따른다"는 말은 서로 다른 버전의 스파이더맨에 등장합니다. [사진=@iron_spideryc]

큰 힘에는 큰 책임이 따른다

이런 생각이 꼬리에 꼬리를 물고 이어지는 와중에 EU의 AI규제법이 통과됩니다. 곧바로 영화 스파이더맨에 등장하는 유명한 장면이 떠올랐습니다.

"큰 힘에는 큰 책임이 따른다."

EU는 생성형AI가 등장하기 전부터 AI 규제법안을 준비하고 있었습니다. 여러 이유가 있겠지만 규제하는 이유는 사실 간단합니다. AI가 막강한 힘을 보여주고 있기 때문이에요. 

기술 개발이 빠르게 이뤄지고 있는 시대. 이제는 어떠한 기술이 일으킬 문제를 ‘예측’한 뒤 이를 방지하는 일은 쉽지 않습니다. 이제껏 경험해보지 못한 기술이 등장했을 때, 인간은 이 기술이 사회에 어떠한 영향을 미칠지 파악하기가 어려워요. 결국 어찌 됐건 우리는 ‘불확실성’의 시대를 살아갈 수밖에 없는 상황이에요. 

규제는 포괄적으로 만들어질 수밖에 없습니다. 기술이 가진 한계를 인정하고, 규제를 통해 불확실성을 최소화하는 방향으로 법을 만들어 행여라도 생길지 모를 사회적 혼란을 줄이는 게 법안의 목적입니다. 

이런 시대에는 어쩔 수 없습니다. 큰 힘을 가진 자에게 책임을 지우는 게 가장 규제하는 입장에서는 합리적인 방법이라는 생각이 듭니다. EU가 통과시킨 세계 최초의 AI 규제 법안이 바로 이러한 고민을 담고 있어요. 지난 21일(현지 시각) 최종 확정된 EU의 규제법안을 살짝 살펴보겠습니다. 

AI 규제법은 크게 세 분야로 나뉩니다(보고서). 먼저 AI 개발 지원입니다. 2024년 2월에 유럽 AI 사무소가 설립됐는데요, 여기서 개발자는 물론 AI 개발 기업에 자문과 지원을 제공합니다. 이 과정에서 ‘AI 이니셔티브’를 도입하고 개발자들에게 장려한다고 해요. 즉 가이드라인을 지켜가면서 AI를 개발한다면 적극 지원하겠다는 의미입니다. 

두 번째로 엄격한 규제 부분입니다. EU는 AI를 그 중요성에 따라 4단계로 나눴습니다. ▲최소 또는 무위험 ▲제한적 위험 ▲고위험 ▲허용 불가 위험. 그 뒤 단계별로 지켜야 하는 의무를 규정했어요. 가령 의료, 선거, 교육, 고용 등 공공서비스나 국경관리처럼 국가 시스템과 밀접한 AI는 고위험 등급에 포함됩니다. 이 분야에서 AI를 활용하려면 사람이 감독해야만 하고 위기관리 시스템을 도입해야만 합니다. 

허용 불가 위험 단계에는 생체인식 시스템 사용, 얼굴 이미지 무작위 수집이나 DB 구축 행위 등이 담겨 있어요. 다만 납치, 테러 등 심각하고 긴급한 범죄와 관련해서는 예외를 뒀습니다. 제한적 위험, 최소 또는 무위험은 이를 개발하는 기업이 EU의 저작권법을 준수하고 AI 개발에 투입된 데이터 출처를 명시하도록 했습니다. AI가 만든 콘텐츠에는 ‘AI가 만들었음’이라는 딱지를 붙이도록 했고요. AI를 활용하는 기업은 앞으로 할일이 많아졌습니다. 

이를 위반하면 해당 기업에는 글로벌 매출의 7%에 달하는 금액을 부과할 수 있도록 했습니다. 구글 알파벳의 연 매출 우리 돈으로 약 300조원이라 하면, 벌금으로 최대 21조원을 낼 수 있습니다. 큰 기술에는 큰 책임이 따르니까요. 

생성형AI 등장 전후로 AI 법이 바뀐 부분도 살펴볼 수 있습니다. 생성형 AI 등장 이전에 EU의 AI 규제법은 인간의 기본권 침해, 차별 악화, 사회적 혼란 증가 등에 초점을 맞추고 있었습니다. AI가 위험하긴 한데 이를 활용하는 부분에 있어서 기술적 제한이 존재하다 보니 ‘큰 그림’에 맞춰진 느낌이었어요. 

하지만 2022년 말 챗GPT 등장 이후 여러 부분이 추가됐습니다. 가령 개인정보 처리, AI가 만든 콘텐츠 관리와 AI가 학습한 데이터, 그리고 마지막으로 ‘범용 AI(AGI)’와 관련된 규제가 바로 그것이에요(보고서). 

범용 AI에 대한 규제도 담겨 있습니다. EU저작권법을 따르고(데이터 학습 마음대로 하면 안 돼) AI가 무엇을 학습했는지 알아야 하며 영향력이 큰 범용 AI의 경우에는 발생할 수 있는 모든 위험을 평가하고 문제가 생기면 바로 EU에 보고해야 합니다(보고서). 

힘을 가진 자에게 책임을 지우려는 EU의 AI 콘트롤. 과연 성공할 수 있을까요. 
오픈AI가 호주의 미디어 재벌이죠. 루퍼트 머독의 뉴스코퍼레이션과 파트너십을 맺었습니다. 뉴스코프는 월스트리트저널, 뉴욕포스트 등을 소유하고 있는 미디어그룹인데요, 오픈AI는 이번 협약으로 이들의 콘텐츠를 '합법적'으로 이용할 수 있게 됐습니다. 앞으로 이러한 협약이 많아질 것 같다는 생각이 드네요. 

엔비디아가 액면분할과 함께 주가가 급등하며 한때 1000달러를 돌파했습니다. 22일(현지 시각) 엔비디아는 10대1의 주식 액면분할과 함께 배당금 150% 증액도 발표했는데요, 1분기 매출은 전년 동기 대비 427% 급등한 226억 달러, 주당 순이익도 6.12달러로 예상치였던 5.59달러를 상회했습니다. 갓비디아!


테슬라의 유럽 판매량이 15개월 만에 최저치를 기록하면서 주가가 3%나 하락했습니다. 4월 기준 테슬라는 유럽 신차 등록 대수 1만3951대를 기록했는데요, 이는 지난해 4월과 비교했을 때 2.3% 감소한 수치라고 합니다. 테슬라의 부진이 이어지고 있습니다. 
맺음말
신기술을 둘러싼 개발과 규제는 언제나 팽팽한 긴장 관계를 유지합니다. 그 과정에서 생각지도 못했던 일들이 발생하기도 하고 사회가 시끄러워지기도 합니다. 

신기술과 규제를 둘러싼 예로 유전자 가위를 꼽을 수 있어요. 손쉽게 유전자를 교정할 수 있는 도구가 만들어지면서 생명공학계에서 폭발적으로 사용됩니다.

그러던 중 중국의 한 과학자가 유전자 가위로 수정란의 유전자를 교정한 뒤 아이를 태어나게 하는 실험이 진행됩니다.

전 세계가 깜짝 놀라고 부랴부랴 여러 규제를 만들기 시작합니다. 해당 실험 이후 수정란에 대한 유전자 교정 연구는 여러 나라에서 상당히 엄격한 규제 하에 진행되고 있습니다.
 
오랜 시간이 지났지만 배아줄기세포를 둘러싼 논문 조작도 신기술과 규제 범주에서 다룰 수 있습니다.

없는 기술이 있다면서 전 세계를 속였던 줄기세포 사건. 이 사건 당시 난자의 무분별한 채취 등의 문제가 발생하면서 이후 줄기세포 연구는 규제로 상당히 까다로워졌습니다.

한국에서 배아줄기세포 대신 성체줄기세포와 관련된 산업이 발전하게 된 이유 중 하나로 규제를 꼽기도 합니다. 

AI는 지금껏 그 어떤 신기술보다도 우리 사회에 미칠 파급 효과가 클 것으로 예상됩니다. 그래서 EU를 비롯해 많은 국가가 AI가 정말 ‘어떤 큰 사건’을 일으키기 전에 규제를 준비하는 것처럼 보입니다.

문제가 터지고 대응책을 마련했던 신기술과 달리, 문제가 발생하기 전에 불확실성을 줄이겠다는 인간의 노력. AI를 올바른 방향으로 이끌려는 인간의 노력은 성공할 수 있을까요. 

질문이 많은 레터였습니다. 질문에 대한 답은 고민이 이어지는 과정에서, 어느 순간 머릿속에서  뛰쳐나온다고 합니다.

그래서 오늘은, 점심 식사 뒤에 잠시 ‘멍’을 때려보는 것은 어떨까요. 우리 뇌도 휴식 시간이 있어야만 고차원의 사고, 생각을 이어갈 수 있습니다. 긴 레터, 읽어주셔서 감사합니다. 칼퇴하세요!

함께 적어가겠습니다.
원호섭 드림

댓글 쓰기

Welcome

다음 이전