스파이더맨의 명대사, "큰 힘에는 책임이 따른다"는 말은 서로 다른 버전의 스파이더맨에 등장합니다. [사진=@iron_spideryc]
큰 힘에는 큰 책임이 따른다
이런 생각이 꼬리에 꼬리를 물고 이어지는 와중에 EU의 AI규제법이 통과됩니다. 곧바로 영화 스파이더맨에 등장하는 유명한 장면이 떠올랐습니다.
"큰 힘에는 큰 책임이 따른다."
EU는 생성형AI가 등장하기 전부터 AI 규제법안을 준비하고 있었습니다. 여러 이유가 있겠지만 규제하는 이유는 사실 간단합니다. AI가 막강한 힘을 보여주고 있기 때문이에요. 기술 개발이 빠르게 이뤄지고 있는 시대. 이제는 어떠한 기술이 일으킬 문제를 ‘예측’한 뒤 이를 방지하는 일은 쉽지 않습니다. 이제껏 경험해보지 못한 기술이 등장했을 때, 인간은 이 기술이 사회에 어떠한 영향을 미칠지 파악하기가 어려워요. 결국 어찌 됐건 우리는 ‘불확실성’의 시대를 살아갈 수밖에 없는 상황이에요.
규제는 포괄적으로 만들어질 수밖에 없습니다. 기술이 가진 한계를 인정하고, 규제를 통해 불확실성을 최소화하는 방향으로 법을 만들어 행여라도 생길지 모를 사회적 혼란을 줄이는 게 법안의 목적입니다.
이런 시대에는 어쩔 수 없습니다. 큰 힘을 가진 자에게 책임을 지우는 게 가장 규제하는 입장에서는 합리적인 방법이라는 생각이 듭니다. EU가 통과시킨 세계 최초의 AI 규제 법안이 바로 이러한 고민을 담고 있어요. 지난 21일(현지 시각) 최종 확정된 EU의 규제법안을 살짝 살펴보겠습니다.
AI 규제법은 크게 세 분야로 나뉩니다(보고서). 먼저 AI 개발 지원입니다. 2024년 2월에 유럽 AI 사무소가 설립됐는데요, 여기서 개발자는 물론 AI 개발 기업에 자문과 지원을 제공합니다. 이 과정에서 ‘AI 이니셔티브’를 도입하고 개발자들에게 장려한다고 해요. 즉 가이드라인을 지켜가면서 AI를 개발한다면 적극 지원하겠다는 의미입니다. 두 번째로 엄격한 규제 부분입니다. EU는 AI를 그 중요성에 따라 4단계로 나눴습니다. ▲최소 또는 무위험 ▲제한적 위험 ▲고위험 ▲허용 불가 위험. 그 뒤 단계별로 지켜야 하는 의무를 규정했어요. 가령 의료, 선거, 교육, 고용 등 공공서비스나 국경관리처럼 국가 시스템과 밀접한 AI는 고위험 등급에 포함됩니다. 이 분야에서 AI를 활용하려면 사람이 감독해야만 하고 위기관리 시스템을 도입해야만 합니다.
허용 불가 위험 단계에는 생체인식 시스템 사용, 얼굴 이미지 무작위 수집이나 DB 구축 행위 등이 담겨 있어요. 다만 납치, 테러 등 심각하고 긴급한 범죄와 관련해서는 예외를 뒀습니다. 제한적 위험, 최소 또는 무위험은 이를 개발하는 기업이 EU의 저작권법을 준수하고 AI 개발에 투입된 데이터 출처를 명시하도록 했습니다. AI가 만든 콘텐츠에는 ‘AI가 만들었음’이라는 딱지를 붙이도록 했고요. AI를 활용하는 기업은 앞으로 할일이 많아졌습니다.
이를 위반하면 해당 기업에는 글로벌 매출의 7%에 달하는 금액을 부과할 수 있도록 했습니다. 구글 알파벳의 연 매출 우리 돈으로 약 300조원이라 하면, 벌금으로 최대 21조원을 낼 수 있습니다. 큰 기술에는 큰 책임이 따르니까요.
생성형AI 등장 전후로 AI 법이 바뀐 부분도 살펴볼 수 있습니다. 생성형 AI 등장 이전에 EU의 AI 규제법은 인간의 기본권 침해, 차별 악화, 사회적 혼란 증가 등에 초점을 맞추고 있었습니다. AI가 위험하긴 한데 이를 활용하는 부분에 있어서 기술적 제한이 존재하다 보니 ‘큰 그림’에 맞춰진 느낌이었어요.
하지만 2022년 말 챗GPT 등장 이후 여러 부분이 추가됐습니다. 가령 개인정보 처리, AI가 만든 콘텐츠 관리와 AI가 학습한 데이터, 그리고 마지막으로 ‘범용 AI(AGI)’와 관련된 규제가 바로 그것이에요(보고서). 범용 AI에 대한 규제도 담겨 있습니다. EU저작권법을 따르고(데이터 학습 마음대로 하면 안 돼) AI가 무엇을 학습했는지 알아야 하며 영향력이 큰 범용 AI의 경우에는 발생할 수 있는 모든 위험을 평가하고 문제가 생기면 바로 EU에 보고해야 합니다(보고서). 힘을 가진 자에게 책임을 지우려는 EU의 AI 콘트롤. 과연 성공할 수 있을까요.
|