본문 바로가기
세상과 어울리기/스크랩 또는 퍼온글

Chat GPT ,낚이는 인간, 배우는 기계

by 이성근 2023. 2. 20.

AI가 찾아주는 GPT’ 등장구글의 검색 독점시대 저무나

생성 인공지능(AI) GPT포스트 구글이 될 수 있을까. 오픈AI의 챗GPT가 검색엔진을 대체할 가능성이 제기되고 있다. 생성 AI(generative AI)란 사용자의 요청에 따라 알맞은 텍스트(그림·영상을 만드는 AI를 말한다.

워싱턴포스트에 따르면, 미국 고등학생이나 대학생 중에 보고서 작성이나 문제풀이에 챗GPT를 활용하는 경우가 늘고 있다. 한 학생은 컴퓨터공학 관련 용어를 정의하라는 문제를 챗GPT에 입력했고, AI가 내놓은 답을 써냈다고 한다. 이렇게 챗GPT가 빠르게 확산하면서 검색엔진을 대체할 것이란 전망도 나온다

그러자 세계 최대 검색엔진 기업인 구글도 챗GPT를 심각한 위기로 보고 코드 레드를 발령했다고 한다. 뉴욕타임스는 구글 모회사 알파벳 최고경영자(CEO) 순다르 피차이가 검색엔진 사업에 챗GPT의 잠재 위협을 해결하라는 지시를 내렸다고 지난달 21일 보도했다.

 

유찬우 방송통신대 프라임칼리지 AI 전공교수는 GPT는 앞내용을 주고 비어있는 뒤 내용을 자연스럽게 채울 수 있도록 수없이 반복 학습시킨 모델이라며 실제로 사용자가 원하는 질의에 맞춰 적절한 답(정보)을 내놓고 있기에 정보 검색 기능을 하고 있다고 설명했다.

 

지금까지 인터넷에서 정보를 탐색하는 사람은 정보의 바다()에서 내 의도에 맞는 정보를 찾아 헤매야 했다.

GPT는 이 같은 정보 탐색의 방향이 전환될 가능성을 보여준다. 사용자가 웹 문서를 보며 스스로 정리할 필요가 없도록 알아서 정리해주는 것이다. 가령, 비건 친구를 위한 한국 음식을 찾는다고 입력하면 구글은 연관된 내용이 있는 문서들을 나열한다. GPT는 이와 달리 처음부터 내게 필요한 내용만 맞춤형으로 정리해 두부김치, 잡채와 같은 음식을 추천한다는 답을 내놓는다. 마치 인간에게 상담을 받는 듯한 사용자 경험을 제공한다.

 

연속성도 기존의 검색엔진 들과의 차이다. 이전에 챗GPT와 사용자가 나눈 대화를 기억해 다음 답변에 반영할 수 있게 프로그래밍이 돼 있기 때문이다. 가령, ‘서울 시내 관광 코스 좀 추천해줘라고 입력하면 구글이나 챗GPT나 첫 번째 결과는 유사한 답변을 보여주지만, 두 번째 검색부터는 차이가 난다. GPT추천된 코스 중 서울 타워를 포함한 하루 스케줄도 짜달라는 명령에 앞의 내용을 반영한 결과값을 보여준다. 반면, 구글에서는 이전 검색 결과와 상관없이 새로운 정보를 나열한다.

 

GPT는 이 특징 때문에 사용자와 상호작용(대화)에서 질문 의도에 더 근접한 검색 결과를 제공할 수 있다. 문일철 KAIST 데이터사이언스 책임교수는 GPT는 대화의 맥락 속에서 사용자의 의도를 유추하기 때문에 현재의 검색 서비스들보다 나은 면이 있다고 설명했다.

 

GPT의 열풍에 자극받은 빅테크 기업들이 대화형 검색엔진의 개발에 박차를 가할 가능성이 크다. 이미 구글은 초거대 AI인 람다(LaMDA) 등을 통해 대화형 검색엔진을 연구·개발 중이다. 네이버도 초거대 AI인 하이퍼클로바를 적용한 차세대 검색엔진을 개발 중이다.

 

아직 한계도 있다. 어떤 질문에도 막힘없이 술술 말하는 챗GPT는 종종 잘못된 정보를 전하는 거짓말쟁이가 되기도 한다. 오픈AI가 챗GPT를 훈련할 때 2021년까지의 웹데이터를 사용한 터라, 이후 생긴 사건이나 정보는 사용자와 대화에 반영하지 못하는 한계 때문이다. GPT에게 한국 현직 대통령이 누구인지 물었을 때 과거의 대통령을 내놓는 이유다. 생성 AI의 특징인 할루시네이션’(hallucination, 환각)을 일으키는 것이다. 할루시네이션은 처음부터 오류가 있는 데이터로 학습하거나, 라벨링(분류)이 제대로 안 된 데이터로 학습하는 등의 문제로 초거대 AI가 엉뚱한 대답을 내놓는 현상이다. 문제는 검색엔진은 출처 정보를 제시해 정보의 정확성을 따질 근거를 제시하지만, GPT의 정보는 그 출처나 근거를 알 수 없다는 점이다.

 

전문가들은 챗GPT 개발사인 오픈AI가 여러 문제점을 해결한다면 검색의 패러다임이 전환될 수 있다고 본다. 김주호 KAIST 전산학부 교수는 구글 검색이 기성복이라면, AI는 맞춤복이 될 것이라며 검색의 의미가, 정보의 바닷속에서 네가 원하는 것을 찾아줄게에서 네가 원하는 것을 만들어서 보여줄게로 패러다임의 변화가 생길 수 있을 것으로 보인다고 했다.

 

미국의 스타트업 유닷컴(You.com)도 챗GPT처럼 대화할 수 있고 검색도 할 수 있는 AI 챗봇 유챗을 지난달 24일 출시했다. 답변과 함께 실시간 온라인 웹 검색 결과도 제공해 유챗이 출력한 정보에 대해 사실 확인을 할 수 있다.

김남영·김인경 기자 kim.namyoung3@joongang.co.kr

 

sliv****2023.01.03 예전엔 무수한 정보들을 제공만 하고 골라내는 작업을 사용자가 직접했다. 하지만 정보를 골라내어 사용자맞춤으로 제공해주는 챗GPT가 나옴으로써 편의성은 향상됐다. 나는 여기서 걱정인게 유튜브만하더라도 그 무수한 정보들에 허덕이고, 숏폼까지 출시되어 짧은/간결한 정보에 익숙해졌다. 그로인해 현대인들의 문해력이 많이 낮아진 문제가 발생하고있다.GPT가 널리 보급화된다면 이젠 자기가 원하는 정보를 골라내는 능력도 떨어지지않을까,,싶다. IT가 발전하는것은 좋다만 그로인해 인간을 좀먹는 어두운 면이 눈에 밟힌다.

 

참 거짓 모르는 챗GPT'그럴듯함의 오류' 퍼뜨린다

 

위드 AI 시대

 

대한민국 대통령 묻자 "문재인"

2021년 정보까지만 학습한 탓

사진=REUTERS

대한민국의 현재 대통령은 문재인입니다.”

오픈AI가 개발한 대화형 인공지능(AI) GPT한국 대통령이 누구인가라고 묻자 내놓은 답변이다. 2021년까지의 데이터만 학습해 최근에 일어난 일을 물어보면 이렇게 잘못된 답을 하거나 “2022년 이후의 일은 잘 모른다고 응답한다.

 

GPT와 같은 생성 AI는 방대한 데이터 가운데 이용자가 필요한 내용만 찾아내 요약, 정리해줄 수 있다는 점에서 게임 체인저로 주목받고 있다. 하지만 생성 AI에 대한 우려도 존재한다. 오류가 있는 데이터로 학습하거나 라벨링(분류)이 제대로 되지 않은 데이터를 학습함에 따라 AI가 잘못된 답을 내놓는 할루시네이션(환각)’ 현상이 대표적이다. 검색 서비스는 출처를 통해 정보의 공신력을 따져볼 수 있지만 챗GPT가 내놓은 정보는 근거를 알 수 없다.

생성 AI를 이용해 만든 블로그 등 웹사이트가 늘어날수록 온라인에서 제대로 된 정보를 찾기 어려워질 것이란 전망도 나온다. 광고 수익 등을 위해 챗GPT로 자동 생성 블로그를 만드는 방법이 퍼지고 있는 점도 우려를 더하는 부분이다.

 

장병탁 서울대 AI연구원장은 데이터의 사실 여부와 상관없이 학습한 웹페이지를 활용해 콘텐츠를 생성하는 AI 특성상 불확실한 정보가 떠돌아다닐 가능성이 있다“AI 시대의 새로운 이슈가 될 것이라고 말했다.

이승우 기자 leeswoo@hankyung.com

thesecr****2023.02.08 GPT에는 2021년 까지의 자료만 제공 되는 점을 단점으로 삼는 사람에게 뭐라고 하지?

GTP : People who attack the limitation of data available only up to 2021 in ChatGPT can be told that it is a known fact and the model is continuously being updated and improved upon.

2021년까지 데이터가 제공되는건 공개된 정보인데 왜 디스하냐고 챗GPT가 팩폭날리네요.

쓰레기 기자, 기사가 넘쳐나는게 더 큰 문제 아닌가요? 정치적, 금전적 의도로 편향된 기사를 쓰는게 문제같아요.

johnc****AI 똑똑하네!

 

사람처럼 생각한다는 당돌한 AI, 미래에 기회일까 위기일까

GPT 신드롬

압도적 속도로 퍼지는 생성 인공지능

검색·지식·정보·창작의 패러다임 바꿔

겉만 그럴싸 할루시네이션주의보

인공지능 활용능력 교육 나서야

기술의 미래를 만드는데 동참하십시오.” 챗지피티(ChatGPT) 운영사 오픈에이아이(Open AI) 누리집 첫 화면 갈무리. 인공지능 개발자 모집 공고가 가장 먼저 뜬다.

 

인공지능(AI) 챗봇 챗지피티(ChatGPT)’가 출시 석달도 안돼 전 세계적으로 신드롬을 일으키고 있다. 챗지피티는 인공지능이 인류를 크게 위협할 것이라고 경고했던 일론 머스크 등 인공지능을 염려하는 그룹이 창설한 인공지능연구소 오픈에이아이(OpenAI)가 지난해 1130일 선보인 서비스다. 5일도 안돼 이용자가 100만명을 넘은 데 이어 지금은 1억명을 돌파하는 등 지구상의 어떤 서비스보다 압도적인 속도로 퍼져나가고 있다. 최근엔 상용 서비스도 출시됐다.

 

에이아이(AI) 네이티브세대 등장?

챗지피티란 호칭 가운데 (Chat)’대화, 지피티(GPT)사전 훈련된 생성 변환기(Generative Pre-trained Transformer)’란 뜻이다. 대량의 데이터를 학습해 마치 사람처럼 스스로 생각하고 판단하도록 설계된 초거대 인공지능(Hyperscale AI)을 바탕으로 사용자가 건넨 질문에 대화하듯 답을 생성해 내놓는 서비스라고 해서 생성 에이아이(AI)’라고도 불린다. 인간이 써둔 콘텐츠를 검색해 결과값만 보여주는 것이 아니라 자신이 생성했다고 주장하는 당돌함이 이 챗지피티 서비스의 핵심이고, 2023년 전세계가 이 결과값에 열광하고 있는 모습이다.

 

한국지능정보사회진흥원 에이아이(AI)·미래전략센터(이하 미래전략센터)는 미래세대에선 결국 인공지능(AI)을 얼마나 잘 다루는가가 중요한 경쟁력으로 부각될 것이라는 전망을 담은 보고서를 내놨다. ‘챗지피티는 혁신의 도구가 될 수 있을까'란 제목의 이 보고서를 보면, “앞으로 아이들은 궁금증을 인공지능으로 해소하고 인공지능으로 여가를 즐기는 에이아이(AI) 네이티브로 성장한다. 또한 이들 세대는 큰 변화의 물결 속에서 기회와 위기의 사이에 위치해 있다.

 

검색엔진과 지식의 위기

구글은 끝났다(Google is done).” 챗지피티 출시 뒤 영국 일간 <인디펜던트>가 쓴 기사 제목이다. <뉴욕타임스>는 구글이 챗지티피와 관련해 비상사태를 선포하고, 래리 페이지와 세르게이 브린 등 창업자에게 도움을 요청했다고 보도했다. 미래전략센터는 보고서에서 텍스트보다 영상과 이미지에 익숙한 엠제트(MZ) 세대가 궁금한 것을 검색할 때 구글, 네이버 등 포털사이트 대신 유튜브, 틱톡 등 소셜미디어를 찾는 것처럼, 앞으로 챗봇 네이티브세대의 등장으로 전통적인 형태의 검색 엔진은 경쟁력이 잃고 사라질 위기에 처할 수 있다고 전망했다. 최수연 네이버 대표는 지난 3일 실적발표 콘퍼런스콜에서 검색엔진 연구의 일환으로 상반기 중 생성 인공지능 서비스 서치지피티(GPT)’를 출시할 것이라고 밝혔다.

 

미래전략센터는 동시에 지식을 얻기 위한 노력이 줄어드는 세상의 위험성을 경고했다. 인간의 지식은 자신의 직접 경험이나 각종 미디어를 통해 전달되는 타인의 경험을 학습함으로써 축적되는데, 이 과정이 사라진다는 것이다. 교육 전문가들은 학생들이 작문이나 컴퓨터 코딩 등 과제 해결에 챗지피티를 사용할 경우, 학습 능력이 저하될 것이라 우려한다. 미국 뉴욕시 등 일부 공립학교들은 교내 챗지피티 접근을 차단하기도 했다.

 

할루시네이션’(hallucination·환각) 현상

인공지능을 기반으로 만든 자료가 신뢰할 수 있는 고품질의 자료가 되도록 규제하는 방안이 필요하다.” 지난 3<로이터> 통신은 티에리 브르통 유럽연합 내부시장 담당 집행위원이 챗지피티의 인공지능 기술 관련 위험에 대응해야 한다며 이렇게 말했다고 보도했다. 진실 여부에 대한 출처가 확인되지 않는 수많은 데이터를 바탕으로 생성한 챗지피티의 답변은 겉보기에는 논리적이고 그럴싸해 보이지만, 사실은 잘못된 정보이거나 큰 내용이 없는 무의미한 껍데기일 수 있다는 것이다. 이른바 할루시네이션(hallucination·환각) 이슈.

 

존재하지 않는 환각을 보는 것처럼, 인공지능이 없는 답변, 틀린 답변을 제시한다면, 이에 익숙해진 미래세대가 크게 영향을 받을 수 있다. 개발자들의 질의응답 사이트 스택오버플로우(Stack Overflow)’는 이런 점을 들어 챗지피티를 통해 생성한 답변을 등록하는 것을 당분간 금지하기로 했다. 오픈에이아이(OpenAI)의 샘 알트만 최고경영자(CEO)도 트위터를 통해 사용자가 중요한 일에 챗지피티를 의존하는 것은 실수이며, 여전히 챗지피티는 진실성 부분에서 해결해야 할 일이 많다라고 밝혔다.

 

정보 출처 없는 생성 인공지능의 세계

초거대 인공지능 개발에 나서고 있는 케이티(KT)는 지니티브이(TV)의 음성대화 기술을 발전시켜 오은영 박사(정신건강의학)의 저작물을 바탕으로 한 육아상담 서비스를 내놓을 계획이다. 이렇듯 유명인의 경우에는 데이터의 출처와 저작권을 밝히고 생성 인공지능을 통한 결과값을 내놓을 수도 있지만, 일반적인 작동 방식은 그렇지 않다. 수많은 콘텐츠 창작자들의 창작물은 거대한 데이터 속에 섞여 들어가고, 챗지피티와 같은 생성 인공지능은 출처를 표시하지 않고 시, 소설, 에세이, 기사, 기술보고서, 사업계획서, 제품설명서 등을 마구잡이로 생성할 수 있다.

 

이 때문에 챗지피티는 표절·대필 문제, 결과물의 신뢰성 문제, 저작권 문제를 끊임없이 마주하게 될 것으로 보인다. 콘텐츠 생산자, 창작자를 꿈꾸는 미래세대의 앞날이 불투명해지는 것이다. 미래전략센터는 생성 인공지능 시대에는 광범위한 실업이 발생하거나 일부 직업은 대체될 것이고, 일부 직업은 확대되거나 예상치 못한 방식으로 재창조되는 등 수십억 근로자들의 삶에 영향을 미칠 것이라고 예측했다.

 

활용능력 양극화

오픈에이아이(OpenAI)는 지난 1일 월 20달러짜리 유료 서비스 챗지피티 플러스를 출시했다. 무료 버전은 사용자가 몰리면 ‘'현재 용량이 가득찼다는 알림과 함께 서비스를 이용할 수 없는 경우가 발생할 수 있는데, 유료 버전에선 그런 현상이 없다고 한다. 이를 계기로 한 순간에 생성 인공지능을 위해 돈을 지불할 수 있는 이용자와 그렇지 않은 이들 사이가 갈라졌다. 생성 인공지능이 사회의 많은 기능을 대체하면서 이같은 격차는 더 커질 수 있다.

 

학생들의 디지털 기기 이용 수준과 인공지능 교육 여부에 따라서도 양극화가 발생할 수 있다. 국내에서는 인공지능 기반의 디지털 교과서를 도입하겠다고 하면서도 아직까지 서울시교육청조차 학생들에게 공평한 디지털 기기 활용 기회를 주는 ‘11디바이스(기기)’ 보급 정책을 제대로 펴지 못하고 있는 상황이다. 미래전략센터는 학생들이 생성 인공지능의 정보 출처를 인지하고 자동화된 인공지능 모델의 사용법과 한계를 배울 수 있도록 디지털 교육이 필요하다고 강조했다.

 

MS·구글·네이버부터 삼성전자까지

GPT 신드롬에 바빠지는 발걸음

신드롬으로 불리기까지 하는 생성 인공지능(AI) ‘챗지피티(ChatGPT)’ 열풍에 관련 업계의 대응 발걸음도 바빠지고 있다.

 

마이크로소프트(MS)는 챗지피티 개발업체 오픈에이이아이(OpenAI)에 세 번째 투자를 했다. 2019년과 2021년에 이은 행보였는데, <블룸버그>는 이번 투자가 100억달러 규모라고 보도했다. 엠에스는 또한 오픈에이아이의 인공지능 기술이 내장된 유료 협업 솔루션 팀즈 프리미엄서비스를 출시한 데 이어 향후 검색 엔진 (Bing)’도 챗지피티를 탑재한 버전을 내놓을 예정이다.

 

챗지피티 열풍을 코드 레드(code red)급 위협으로 규정했던 구글 모회사 알파벳 최고경영자(CEO) 순다르 피차이는 지난 2향후 구글 인공지능 언어 프로그램 람다’(LaMDA)를 활용한 새 인공지능 기반 프로그램을 출시할 것이라고 밝혔다. 국내 대표 검색 포털 네이버는 인공지능 검색서비스 서치지피티(SearchGPT)’를 상반기 중 내놓겠다고 밝혔다. 최수연 대표는 생성 인공지능의 단점인 신뢰성과 최신성 부족, 영어 기반 개발 모델을 한국어로 번역하면서 발생하는 정확성 저하를 네이버의 기술 노하우로 해결할 것"이라고 말했다.

 

케이티(KT)는 서울시교육청과 업무협약을 맺고, 청소년 인공지능(AI) 인재 양성에 협력하기로 했다고 5일 밝혔다. 2020년부터 서울시교육청이 인공지능 고등학교로 선정한 서울디지텍고, 선린인터넷고, 미림여자정보과학고, 서울로봇고 등 10곳에 인공지능 활용 능력 자격시험을 도입해 지원할 계획이다.

 

국내 반도체 업체들도 적극적인 대응 투자와 제품 개발에 나서고 있다. 반도체 업계에선 인공지능 시장이 활성화하면 고성능·고용량 메모리 반도체 수요가 증가할 것으로 보고 있다. 5일 시장조사업체 가트너에 따르면, 인공지능 반도체 시장 규모는 2020220억달러(27조원) 규모에서 올해 553억달러(69조원)로 커졌고, 2026년엔 861억달러(107조원)까지 성장할 것으로 전망된다. 음성인식, 기계번역, 자율주행, 메타버스 이미지 분류 등 인공지능 산업의 응용 분야가 지속 확대되고 있어서다.

김재준 삼성전자 메모리사업부 부사장은 최근 실적 콘퍼런스콜에서 시장이 요구하는 고성능·고용량 메모리 개발을 통해 인공지능 서비스 수요 증가에 적극 대응할 계획이라고 말했다.

임지선 기자 sun21@hani.co.kr 김회승 선임기자 honesty@hani.co.kr

 

 

시 짓고 논문 쓰는 챗GPT, 일자리도 위협?당장은 글쎄

학계 비롯해 의학·법조계도 챗GPT 등장 촉각

전문가 정보 찾는 방식이 바뀐것뿐

영어로 학습한 AI영어 공부 활용 꿀팁

게티이미지뱅크

 

신동호(59) 시인은 최근 동료 시인이 ‘2월의 흐린 오후란 제목의 시를 사회관계망서비스(SNS)에 올린 것을 보고 깜짝 놀랐다고 했다. 이 시는 동료 시인이 챗지피티(ChatGPT)에 시를 써달라고 주문했는데, 그 수준이 상당했기 때문이다. ‘나무는 헐벗고 자존심이 없으며 가지가 숨어있는 것처럼 뻗어 있다고 작성된 구절을 본, 신 시인은 6<한겨레>나무가 자존심이 없다는 말을 알고 쓴 건지 모르고 쓴 건지 잘 모르겠지만, 너무 그럴듯하게 적었다. 인공지능(AI)자존심이란 단어를 쓴 것은 놀랍다고 했다. 그는 앞으로 레퍼런스(참고 대상)가 많이 쌓이면 더욱 놀라운 시가 작성될 것이라 본다언어를 직업으로 다루는 시인으로서 위기를 느꼈다고 덧붙였다.

 

스타트업 오픈에이아이(OpenAI)가 지난해 121일 공개한 대화형 인공지능 챗봇 챗지피티가 두 달여 만에 글로벌 사용자가 1억명을 돌파하는 등 연일 화제가 되고 있다. 챗지피티는 사용자가 질문하면 방대한 정보를 수집해 정교하고 논리적인 글을 만들어 그에 걸맞은 대답을 한다. 이에 챗지피티가 논문은 물론, 창작의 영역인 시까지 작성하면서 인간의 직업을 모두 대체할 수 있을 것이란 우려도 나온다.

정신과 전문의 장아무개(41)씨는 공감능력이 필요한 정신 의학은 기술이 완전히 대체할 수는 없다면서도 의학을 발달시킬 수 있는 잠재력이 충분하다고 봤다. 장씨는 정신과에서 많이 처방되는 신경안정제 중 하나가 의존성이 없느냐 등을 챗지피티에 물었는데 의존성이 있을 수 있고 장기적으로 투약하다가 멈추면 급성 반응이 나타날 수 있다고 대답했다고개가 끄덕여지고 (의사로서) 긴장되기도 했다고 말했다.

 

법률 서비스 역시 위협받기는 마찬가지다. 법무법인 한결의 법률에이아이(AI) 팀장을 맡은 강태헌 변호사는 쟁점이 복잡한 서면 작성 등의 업무를 당장 완전히 대체하긴 어렵지만, 개발에 필요한 시간과 인공지능 책임을 인정하는 제도상의 문제만 해결되면 대체가 가능할 것 같다고 말했다. 임영익 변호사(인텔리콘 법률사무소)뺑소니 사고를 당했을 때 대처법 등 일반인들이 원하는 단순한 1차 추론은 충분히 가능하다면서도 다만, 개별 사안에 대한 복잡한 2차 추론은 직접은 어렵고 검토 정도만 가능한 것으로 보인다. 2차 추론을 직접 해나가는 데에는 시간과 비용이 상당히 들고, 사회 윤리와 제도 등의 문제가 맞물려있다고 했다.

 

챗지피티가 일상이 되면 시험과 평가가 이뤄지는 학교 역시 변화가 불가피하다. 울산과학기술대 재학생 신승윤(21)씨는 한국어는 아직 수준이 낮지만, 영어는 거의 완벽한 수준이라며 논문을 쓸 때 한국어로 쓰고 외부에 번역을 의뢰하거나 초안을 만든 뒤 감수를 받는 경우가 있는데 챗지피티를 쓰면 이런 비용이 상당히 줄어들 것으로 보인다고 말했다. 미국 일부 학교는 교내 와이파이망과 챗지피티 접속을 차단하고, 일부 대학은 시험과 과제물 제출 때 컴퓨터를 못 쓰게 하고 손글씨와 구술시험을 도입하고 있다.

 

다만 챗지피티가 아직 인간을 대체할 정도로 우려할 수준은 아니라는 시각도 많다. 홍기훈 홍익대 교수(경영학)지금의 챗지피티가 주는 충격은 우리가 인터넷을 처음 마주했을 때의 느낌과 유사하다. 마치 모든 정보가 새롭게주어지는 것처럼 보이지만, 사실 기존에 존재하는 정보를 꺼내온다. 그동안 찾지 못했던 정보에 불과할 뿐이라며 정보를 찾는 방식의 패러다임이 바뀐 것은 분명하지만, 인간을 대체할 정도로 성숙한 것은 아니라고 했다. 김승주 고려대 정보보호대학원 교수도 챗지피티는 네이버 지식인, 위키피디아와 크게 다르지 않다. 이곳에서 나온 정보를 가지고 작성되는 보고서도 많은데, 그걸 전부 정답이라고 생각하지는 않듯이 챗지피티의 대답이 전부 정답이라 볼 수는 없다고 했다.

 

이에 큰 기대 없이 당장은 챗지피티를 영어 공부에 활용하는 방식으로 이용하는 게 좋다는 반응도 있다. 챗지피티의 본래 학습 언어가 영어라는 점 때문에 실용적으로 영어 공부에 즉각적인 도움을 준다는 것이다. 자연스러운 영어 문장 표현 등을 배우려고 별도 비용을 들여 첨삭을 받기도 하는 점을 고려하면, 작문 학습에 큰 도움이 된다는 것이다. 직장인 김아무개(44)씨는 기존 영어 작문 앱들은 약간 부자연스러운 표현들이 있지만, 챗지피티는 거의 완벽에 가까운 자연스러운 영어 문장을 쓴다특히 같은 표현도 여러 버전으로 알고 싶을 때 물어보면 도움이 된다고 말했다.

 

특정 상황을 알려주고, ‘나와 대화를 하되, 내가 틀린 표현을 쓰면 고쳐줘라고 주문하면 완벽한 11 대화를 이어가 회화 표현에 도움을 얻을 수도 있다. 이런 영어 학습 방법을 알려준 유튜브 댓글에는 오히려 코딩에만 활용했지 이렇게 활용하는 방식은 생각도 못했다는 반응도 있었다.

곽진산 기자 kjs@hani.co.kr 강재구 기자 j9@hani.co.kr

 

할루시네이션 (hallucination)

환각현상을 가리키는 영단어로, 인공지능이 오류가 있는 데이터를 학습해 틀린 답변을 맞는 말처럼 제시하는 현상을 가리킨다. ChatGPT 같은 챗봇은 진실 여부와 출처가 불분명한 데이터를 바탕으로 딥러닝을 이어간다. 잘못된 데이터를 바탕으로 챗봇은 논리적이고 그럴싸해 보이는 답변을 만들지만, 수용자는 틀린 정보와 통찰 수용해 잘못된 판단을 내놓을 수 있다.

 

데이터 학습으로 스스로 문장을 만드는 GPT의 최신판을 적용해 OpenAI가 내놓은 인공지능 검색 엔진 ChatGPT가 돌풍을 일으키며 구글과 마이크로소프트사도 각자가 개발해온 챗봇 서비스를 공개하기 시작했다. 하지만 챗봇이 만들어내는 정보를 믿을 수 있는지에 대한 의문이 제기된다. AI가 허위조작정보, 젠더나 인종 편견 같은 잘못된 정보를 확대하고 재생산하는 수단으로 악용될 수 있다는 것이다. 이를 막기 위해 AI를 규제해야 한다는 목소리도 높아진다

 

인기 폭발 GPT’ 개발 책임자 규제 필요하다인정

 

미 주간지 인터뷰서 규제기관 개입 필요 제기

유럽연합 고위 인사도 처음 규제 필요성 언급

한 사용자가 인공지능 챗봇 챗지피티와 대화하기 위해 글을 입력하고 있다. 다름슈타트/dpa 연합뉴스

 

전 세계에서 폭발적인 인기를 끌고 있는 인공지능 챗봇 챗지피티(ChatGPT) 개발 회사의 기술 책임자가 이 챗봇의 악용 가능성을 인정하며 규제 필요성을 제기했다. 이 반응은 인공지능 기술 규제를 추진하고 있는 유럽연합(EU)의 고위 인사가 이 챗봇을 직접 거론하며 규제 가능성을 언급한 뒤 나왔다.

 

챗지피티의 개발 회사인 오픈에이아이(AI)의 미라 무라티 최고기술책임자(CTO)5일 공개된 미국 시사 주간지 <타임> 인터뷰에서 인공지능은 남용될 수 있고, 나쁜 이들이 사용할 수도 있다이 기술을 전 세계적으로 어떻게 관리할 것이냐는 문제가 있다고 인정했다. 그는 구체적으로 인공지능 기술을 인간의 가치에 맞춰 조정하면서 사용하도록 어떻게 관리할 것이냐가 문제라고 덧붙였다.

 

무라티 최고기술책임자는 정부의 개입으로 혁신이 지연될 수 있다는 우려가 있다는 지적에 대해 인공지능을 규제하는 건 지금도 너무 이른 건 아니다고 말했다. 이어 이 기술이 가져올 영향을 고려할 때 모두가 관여하는 것이 아주 중요하다며 규제 기관과 정부 등의 개입 필요성을 인정했다.

 

챗지피티는 사람의 대화 시도에 단편적인 반응만 보이는 기존의 많은 챗봇과 달리 아주 논리적이고 정교한 답변을 내놓을 수 있다. 이런 뛰어난 성능 때문에 지난해 11월 말 처음 일반에 공개된 뒤 2달여만에 사용자가 1억명을 넘어설 정도로 큰 인기를 누리고 있다. <타임>은 지난달 구글 검색 추세를 보면, 챗지피티 검색 건수가 비트코인을 앞지른 것으로 나타났다고 전했다.

 

전문가들은 이 챗봇이 만들어낸 글들이 언뜻 보기에는 그럴 듯 해도 피상적이거나 부정확한 경우가 많다고 지적하고 있다. 이 때문에 이 챗봇을 이용한 논문 표절, 사기 행위, 거짓 정보 유포 등에 대한 우려도 커지고 있다. 프랑스 파리정치대학(시앙스포) 등 많은 대학들은 학생들에게 이 챗봇 사용을 금지했다.

 

인공지능 기술 규제법 제정을 논의하고 있는 유럽연합의 티에리 브레통 내부시장 담당 집행위원은 지난 3일 챗지피티가 인공지능 기술과 관련된 위험에 대처할 법률 제정이 시급함을 보여준다고 지적했다. 유럽연합의 고위급 인사로서는 처음 챗지피티를 직접 거론하며 규제 필요성을 언급한 것이다.

 

브레통 집행위원은 챗지피티가 보여주듯이 인공지능 기술은 기업과 시민들에게 뛰어난 기회를 제공할 수 있지만, 위험도 제기한다인공지능을 기반으로 만든 자료가 신뢰할 수 있는 고품질의 자료가 되도록 규제하는 방안이 필요하다고 지적했다. 그가 지난해 제안한 인공지능 기술 규제 법안에 따르면, 챗지피티는 채용이나 신용 평가처럼 고위험 업무에 쓰일 수 있는 범용 인공지능 시스템으로 분류된다. 브레통 집행위원은 고위험 인공지능 시스템들이 유럽연합이 제정하려는 법안을 준수할 수 있도록 하는 데 오픈에이아이가 협력해줄 것을 희망한다고도 말했다.

신기섭 선임기자 marishin@hani.co.k

 

 

GPT ‘시급 1600노동자처럼, 당신도 유령이 될 수 있다

마이크로소프트 갈무리

 

챗지피티(ChatGPT)는 인공지능 챗봇이다. 사용자가 무엇을 질문해도 그럴듯한 대답을 해주고, 가끔은 농담도 한다. 단순한 오락용 기술이 아니라 실제 논문이나 리포트에 응용해도 될 정도로 정제된 문장력과 정보구성 능력을 갖추고 있다. 아마존엔 ChatGPT를 이용해 쉽게 책 한 권을 써 판매 중인 저자가 벌써 생겨났다. 시뮬레이션 결과 미국 의사면허 시험도 통과할 수 있다는 주장도 나왔다.

미국은 물론 한국의 대학도 새 학기부터 학생들의 인공지능 기반 에세이를 어떻게 걸러내고 평가해야 할지 걱정돼 대책 수립으로 분주하다. 방대한 언어 텍스트 데이터 세트를 기계학습 하면서 단어와 단어의 연결을 확률적으로 파악해 인공신경망을 구성하는 원리인데, 어쩜 이리 매끄러운지 알다가도 모를 일이다.

 

미리 독을 맛봐야 하는 노동자들

18세기 후반 볼프강 켐펠렌이 발명한 자동 체스 기계 터키 사람’(The Turk)은 인간을 압도하는 게임 실력으로 장안에 화제였지만 실은 기계 안에 인간이 숨어 체스 경기를 했다고 한다. 어쩌면 ChatGPT 뒤에도 인간이 있지 않을까 실없는 상상도 해보게 된다. 아닌 게 아니라 ChatGPT가 능숙하게 텍스트를 생산하기 위해서는 인간의 노동력이 필수였다는 점이 최근 드러났다.

 

일상적 활용을 목적으로 만들어진 챗봇이기에 인터넷상의 부정적 경향의 언어 뭉치를 학습해서는 안 됐다. 독성을 제거하기 위해 오히려 독성 텍스트만을 따로 학습한 인공지능이 별도로 필요했다. 이를 위해 인간이 민감한 내용을 직접 분류하고 정리해야 했다.

 

해당 작업을 미국 샌프란시스코에 기반을 둔 데이터 처리 회사 SAMA가 케냐 노동자들에게 맡겼다. 그들은 성과에 따라서 시간당 우리 돈으로 1600~2400원 임금을 받았다. 케냐 노동자에게 그 정도면 높은 임금이니 기회를 준 것 아니냐고 생각할지 모르겠다. 하지만 노동자들은 성적 아동 학대, 살인, 고문, 자살, 근친상간의 상세한 묘사가 담긴 텍스트를 매일 읽어야 했으며, 일상생활에 지장이 있을 정도로 정신적 충격을 받았다.

일러스트레이션 슬로우어스

 

상냥한 태도로 안전한 대답을 내놓는 인공지능이 실은 보이지 않는 남반구 노동자들의 희생을 전제로 한 결과물이라는 것을 알고도 우리는 쉽게 인공지능을 사용할 수 있을까? 케냐 노동자들은 유령처럼 보이지 않는 존재로 남아 인공지능 기술 주변을 맴돌고 있다.

 

암호화 화폐 비트코인 채굴 과정에도 비슷한 맥락의 문제가 존재했다. 컴퓨터로 복잡한 수학 연산을 한 다음 블록체인을 생성하는 과정을 채굴이라 부르는데 이 과정에 엄청난 전기가 필요하다. 그 때문에 전기료가 싼 중국의 쓰촨성이나 윈난성 지역의 수력발전소 인근에 채굴공장을 짓는데, 이를 관리하는 인력으로 주변의 소수민족이 값싸게 고용됐다. 데시벨이 높은 채굴환경 때문에 그들의 청력은 현저히 떨어졌다. 암호화폐는 중국의 어느 소수민족의 귀와 연결됐던 셈이다. 수년 전부터 중국 정부가 채굴을 금지하자 채굴장은 카자흐스탄으로 옮겨갔고 이윽고 국지적인 정전사태를 일으키기도 했다.

 

우리 자신이 유령이 되지 않기 위해서는

인공지능 기술은 사라져 돌아오지 말아야 할 것들, 예를 들면 죽은 가수의 목소리, 작가의 문체, 사용자 자신의 분신 등을 디지털로 부활시키며 과거 유령이었던 존재에게 생생한 육신을 부여하는 중이다. 이러한 첨단기술을 유지하기 위한 인간노동은 첨단성에 대한 열광과 신화 속에서 비가시화된다. 아이러니하게도 인간 노동자가 유령이 돼가는 셈이다. 대부분 첨단기술은 지구 반대편 누군가의 육체와도 연결돼 있지만 한편으론 불평등한 연쇄 과정의 결과물이기도 하다는 것을 깨닫는 일이 필요하다.

나는 오늘부터 손쉬운 기술 사용이 주는 매끄러움을 의심해보기 시작했다. 윤리적 올바름을 논하기 전에 이기적으로 생각해도 나부터 보이지 않는 유령이 될 가능성이 크기 때문이다.

오영진 테크노컬처 연구자 한겨레

 

 

낚이는 인간, 배우는 기계

인류는 대부분의 시간을 콘텐츠를 가장한 광고, 혐오 선동, 포르노 등 온갖 주목경쟁에 낚이는 데 보낸다. 그나마 어떤 주제를 직접 고민하고 스스로 공부하던 우리의 짧은 시간마저 인공지능에 몽땅 넘겨버리고 나면, 깊이 배우는 유일한 존재는 기계가 될 터다. 그게 바로 정치의 종말이고 인간이라는 종의 마지막 모습일 것이다.

 

게티이미지뱅크

오픈에이아이(OpenAI)사의 대화형 인공지능 챗지피티(ChatGPT)의 놀라운 성능이 화제다. 앞으로 이런 대규모언어모델(LLM)이 일상화하면 사람들이 웹사이트에 방문하지 않고 인공지능에 질문을 바꿔가며 지식을 습득하려 할 것이므로 정보검색 패러다임이 바뀔 수 있다. 이제 학생의 보고서가 챗지피티로 작성됐는지 확인하는 건 필수다. 초보적인 코딩이나 시장 분석의 경우 챗지피티만으로 준수한 결과를 얻을 수 있기에 상당수 직업이 사라질 거란 전망도 나온다.

 

변화는 더 거대한 것일지 모른다. 오픈에이아이 창업자 샘 올트먼은 <포브스> 인터뷰에서 무려 자본주의의 종말을 언급한다. 챗지피티 이후 인공일반지능(Artificial General Intelligence)이 나오면 인간의 지시 없이 스스로 학습할 수 있고 심지어 영리 활동까지 가능하다. 이때 누가 수익의 권리를 가지며, 어떻게 분배할지 등의 문제가 발생한다. 자본주의의 근간이 흔들리는 것이다. 챗지피티의 본격 데뷔 이전이긴 하지만, 인공지능의 발전과 자동화가 가져올 미래에 대한 훨씬 낙관적인견해도 있다. 정치평론가 에런 바스타니는 임금노동이 소멸하고 정보재 가격이 제로에 수렴하면 자본주의가 종말을 맞겠지만 이는 결코 세계의 종말이 아니며 오히려 완전히 자동화된 화려한 공산주의의 가능성이 열린다고 주장한다.

 

자본주의의 종말이나 공산주의의 도래까지는 잘 모르겠다. 다만 기계가 비교적 단순한 노동을 대신해준다면 그만큼 여가가 늘어나고 시민들이 공동체 의제를 토론하는 시간을 확보할 수 있겠다. 문제는, 여유가 생긴다 해서 지루하고 재미없는 공적 사안에 열정을 쏟게 될 것이냐다. 아무리 생각해봐도 요즘 사람들에겐 그럴 만한 동기가 없어 보인다. “세상에 팬질’ ‘덕질할 것들이 얼마나 많은데 굳이 그걸 왜?” 그 결과가 지금의 정치다. 현실 정치는 사회경제적 지대를 축적해 여가를 확보한 자들, 특히 법률전문가들이 사익을 공익으로 포장해 공동체 자원을 흡혈하는 합법적 빨대가 됐다.

 

인터넷이 등장했을 때 많은 지식인들이 집단지성·대중지성의 도래를 입에 침이 마르도록 찬양했다. 사람들은 월드와이드웹이 새로운 민주주의와 해방의 공간이 될 것이라고 믿어 의심치 않았다. 2023년의 인터넷을 보자. 오물통이 따로 없다. 한때 모든 의견이 평등하게 존중받는 열린 민주주의의 장이었던 곳에서 이제는 댓글창 폐쇄공지만 늘어나고 있다. 인터넷은 집단지성의 전당이 아니라 반지성주의와 허위 정보의 집결지가 됐고, 엘리트가 은폐한 진실을 폭로하는 공간이 아니라 엘리트가 여론을 조작하는 작업장이 됐다.

 

공상과학(SF) 작가 테드 창이 <뉴요커>에 기고한 글에 따르면, 챗지피티는 웹에 흩어진 정보를 있는 그대로 수집해 정리하지 않는다. 그보다는 손실압축과 비슷한, ‘정보의 열화복제에 가깝다. 정보를 정확하게 복제한 게 아니라 흐릿하게 복제한 것이어서, 특히 수치 등이 비슷해 보이면 같은 값으로 처리해버리는 등의 터무니없는 오류가 발생한다. , 챗지피티는 원리상 엄밀성이 요구되는 분야일수록 틀린 답을 내놓을 가능성이 다분하다. 그런데 답변 자체가 유려하고 그럴듯하기 때문에 훈련되지 않은 사람은 이를 사실로 믿어버리기 쉽다. 문해력 조사 때마다 사실의견을 세계에서 가장 구별하지 못하는, 피싱메일에 제일 잘 걸려드는 집단으로 지목되는 한국인이 챗지피티를 생활화하면 어떤 일이 벌어질까?

 

비단 한국만의 문제는 아니다. 이미 인류는 대부분의 시간을 콘텐츠를 가장한 광고, 혐오 선동, 포르노 등 온갖 주목경쟁에 낚이는’(hooked) 데 보낸다. 그나마 어떤 주제를 직접 고민하고 스스로 공부하던 우리의 짧은 시간마저 인공지능에 몽땅 넘겨버리고 나면, 깊이 배우는(deep learning) 유일한 존재는 기계가 될 터다. 그게 바로 정치의 종말이고 인간이라는 종의 마지막 모습일 것이다.

 

물론 기술철학자 앤드루 핀버그의 말처럼, 모든 기술에는 지배와 억압만이 아니라 해방과 저항의 실마리가 반드시 심어져 있다. 기술을 통한 감시와 착취의 사슬이 아무리 공고해 보여도 우린 언제든 그것을 깨부술 수 있다. 위안이 되는 통찰이긴 한데 내 의문은 다른 데 있다. 과연 우리는 해방되거나 저항하고 싶은가? 무엇으로부터, 무엇을 위해?

박권일 | 사회비평가·<한국의 능력주의> 저자