이성엽 교수, AI 시대, 인간이 던져야 할 주요 질문들
  • 작성일 2025.02.03.
  • 작성자 고대투데이
  • 조회수 42
이성엽(고려대학교 기술경영전문대학원 교수 ·
기술법정책센터장)
AI 시대, 인간이 던져야 할 주요 질문들

이성엽 교수

2022년 12월 1일 미국 스타트업 '오픈AI'가 ChatGPT(Chat Generative Pre-Trained Transformer)를 출시하면서, 사람의 언어를 이해하는 것은 물론이고 사람의 질문에 꼭 맞는 유용한 답을 내놓는 대화형 생성 AI 시대가 열리고 있다. 2016년 인간 바둑기사를 이긴 알파고의 충격 이후 6년 만이다.

일반적으로 인공지능(AI)은 인간의 학습 능력과 추론 능력, 지각 능력, 자연언어 이해 능력 등을 컴퓨터 프로그램으로 실현한 기술이지만, 생성형 AI는 패턴을 인식하고 예측하도록 설계된 기존 AI 시스템과 달리 대규모 데이터의 패턴을 자기지도학습(self-supervised learning)하여 명령어에 따라 새로운 텍스트, 코드, 이미지, 음악, 영상 등의 콘텐츠를 생성한다는 점에서 차원이 다르다.

이처럼 '창조' 능력을 지닌 생성형 AI가 범용인공지능 (Artificial General Intelligence, AGI)으로 발전하고 있는 점도 주목된다. AGI는 인간처럼 종합적으로 사고·학습·추론하는 인공지능으로 텍스트 이해·생성, 자연어 처리, 이미지 분류, 예측, 추론 등 다양한 태스크를 동시에 처리하는 인간의 능력을 모방한다.

AI 시대의 쟁점: 진실성, 창의성, 민주주의

생성형 AI의 등장이 시사하는 바는, 인간의 고유 능력이라고 여겨지던 사고, 추론 등의 지적 능력을 기계인 인공지능도 발휘하는 것이 가능한 상황으로 접어들고 있다는 것이다. 인간만이 감정과 이성을 가진 유일한 존재로서 존엄성을 지닌다는 가정이 도전을 받기 시작한 것이다. 이렇듯 AI의 발전은 인류가 일구어 온 생활에 가장 큰 영향을 미칠 것으로 보인다. AI 시대, 우리 인간은 어떤 질문을 하고 어떤 답을 준비해야 할까.

첫째 질문은 이것이다. 인간은 AI의 위험성을 통제하면서 투명하고 공정하며 신뢰 가능한 AI를 만들어 갈 수 있을 것인가? 생성형 AI의 위험성은 먼저 결과물의 진실성 문제, 즉 소위 환각(hallucination) 이슈다. 이는 생성형 AI가 사실과 다른 정보를 생성하거나 관련성이 없는 답변을 하는 것을 말한다. 이에 따라 생성형 AI의 결과물에는 오정보(misinformation)와 역정보(disinformation)가 발견되며, 이용자가 이를 그대로 수용하는 경우 막대한 피해를 초래할 수 있다. 의료나 법률 분야의 오정보는 특히 위험성이 높다. 또한 생성형 AI는 역정보 내지 허위조작 정보, 즉 가짜 뉴스를 만드는 데 이용될 수 있다. 또한 AI의 일반적 특성인 편향성도 문제가 될 수 있다. 편항된 데이터를 학습하거나 설계자의 개인적 편향으로 인해 편향된 결과물을 생성할 수 있다.

이성엽 교수

다음 위험성은 생성형 AI가 데이터를 학습하는 과정에서 저작권과 개인 정보를 침해할 가능성이다. 생성형 AI는 공개된 소스를 통해 얻은 데이터로 언어 모델을 훈련시켜 작동하는데, 이 데이터에 저작권이 설정되거나 개인 정보가 포함될 수 있다. 끝으로 생성형 AI를 오남용하는 문제이다. 누구나 쉽게 사이버 공격을 위해 생성형 AI를 이용해 다양한 악성 소프트웨어를 만들 수 있다. 나아가 AI를 이용한 드론 공격 등 AI가 살상용 무기로 사용될 가능성도 있다.

둘째 질문. 인간은 AI로 인한 일자리 대체 위협에 대처할 수 있을 것인가? 글로벌 투자은행인 골드만삭스는 최근 보고서에서 생성형 AI 발달로 미국과 EU의 일자리 4분의 1이 자동화할 것으로 봤다. 업종별로 보면 사무·행정 지원 근로자(46%), 법률(44%), 건축·공학(37%), 생명·사회 과학(36%), 경영·금융(35%), 사회 서비스(33%), 관리(32%), 판매(31%) 순으로 나타났는데, 상위권은 대부분 화이트칼라 업종이 차지했다.

한편 미국 스탠포드대 인간중심 인공지능 연구소 (Human-Centered AI Institute)는 다양한 분야에서 생성형 AI가 미칠 영향을 분석한 보고서를 발표했는데, 교육 문제에 대해 '진행 중인 재앙(disaster in the making)'이라는 표현을 사용해 다른 분야 대비 매우 비관적인 전망을 내놓았다.새로운 자동 작성 도구로서 AI 활용은 전문적 환경에서는 성과를 향상시킬 수 있으나 교육 환경 등 특별한 고려 사항이 없는 곳에서는 창의력을 잠식할 수 있다는 데 큰 우려를 표시했다.


리걸테크 AI포럼에 참석한 이성엽 교수

셋째 질문. AI는 민주주의와 법치주의에 어떤 영향을 주며, AI가 민주주의와 법치주의에 기여할 방안을 만들 수 있을 것인가? 인공지능은 가족, 학연, 지연 등 인간이 가진 편견과 자의를 배제하여 공정하고 평등한 결정을 가능하게 한다. 이런 점에서 AI는 법치주의에 기여할 수 있다. 그러나 학습 데이터 자체에 편향이 존재하는 경우, 알고리즘의 설계자나 운영자의 편향이 알고리즘에 반영되는 경우 등에는 인공지능의 공정성, 중립성도 기대하기 어렵다.

민주주의와의 관계는 어떨까. 누구나 쉽게 사용할 수 있는 생성형 AI는 AI 기술에 대한 접근성을 높이고 개인의 창작 능력을 확대한다는 점에서 민주주의에 기여한다. 다만, AI 활용 능력에 따른 개인 간 격차가 심화되면서 평등 원칙을 침해할 우려가 있다. 특히, 인간의 지능을 넘어서는 초지능 AI가 현실화될 경우, AI를 잘 활용하는 소수의 생산성이 극대화되며 양극화가 심화될 수 있다.

이성엽 저, <생성형 AI와 법>

《생성형 AI와 법》(2024), 박영사

AI 리터러시와 윤리 교육의 필요성

넷째 질문. 우리 인간은 AI의 위험성을 이해하고 장점을 이용함으로써 효율과 편익을 누릴 준비가 되어 있는가? 여기에서 중요한 것이 AI 리터러시(literacy) 함양을 위한 교육과 AI 윤리 교육이다. 미국 국가 인공지능자문위원회(NAIAC, National Artificial Intelligence Advisory Committee)에서는 AI 리터러시를 'AI 툴뿐 아니라 AI를 통한 결과물을 사용하고, 비판적으로 평가할 수 있는 역량'으로 정의하고 있다. 즉 AI 리터러시란 AI를 이해하고, 비판적으로 수용하고, 능동적으로 활용하는 능력이다.

AI 윤리 교육은 다음과 같은 내용을 포함해야 할 것이다. 먼저 AI 기술 개발 및 활용 과정에서 발생할 수 있는 윤리적 문제점을 인식하고, 그 중요성을 깨닫도록 해야 한다. AI 윤리 원칙으로는 공정성, 투명성, 책임감, 인간 중심 등이 있다. 다음은 AI 편향에 대한 것으로, AI 개발자와 사용자가 데이터를 수집하고 처리할 때 발생할 수 있는 프라이버시 침해 문제를 해결하기 위해 데이터 익명화, 데이터 최소화 등 개인정보 보호 대책을 세워야 한다. 또한 AI와 사회적 책임에 관해 다루어야 한다. AI의 결정이 잘못되었을 때, 책임은 누구에게 있는가. AI 시스템의 개발자, 사용 주체, 혹은 시스템 자체에 책임을 묻는 문제가 제기된다. AI 윤리 교육에서는 책임의 범위와 주체를 명확히 하고, AI 시스템 설계 단계에서부터 책임성 있는 AI 개발을 강조해야 한다. AI를 활용하여 타인에 대한 명예훼손, 개인정보 침해, 성범죄 등이 발생할 경우, 엄격히 이용자 본인 책임임을 명심하고 이러한 행위로 나가지 않도록 도덕성을 함양할 수 있는 다양한 교육 수단을 활용해야 할 것이다.

인간과 AI의 공존을 위해

끝으로, 앞의 질문들을 포괄하는 종국적 질문으로서 향후 인간과 AI는 공존할 수 있을까를 생각해 본다. 과연 AI를 인간의 통제하에 두고 인간에게 유용한 방향으로 사용되도록 할 수 있을까. 이 질문에 대한 답은 인간이 AI와 다른 강점을 계속 유지, 발전시켜야 한다는 명제와, 윤리와 법을 통한 AI 규제가 필요하다는 명제를 환기시킨다. 창의성, 예술성, 공감 능력, 전반적인 통찰력에서는 인간이 AI보다 우위에 있다고 보는 견해가 많으므로 인간은 이런 능력을 계속 갖출 수 있어야 한다. 그리고 기술 개발, 산업 진흥 및 이로 인한 이용자 편익을 해하지 않는 범위 내에서 투명성, 공정성, 책임성, 안전성 있는 AI를 위한 법과 윤리가 마련되어야 할 것이다.

첨부파일이(가) 없습니다.