목록으로 가기

[AI 2023] 이경일 솔트룩스 대표 “할루시네이션, ‘설명 가능한 AI’에 답 있다”

뉴스 2023-07-03
 

‘세종대왕 맥북프로 던짐 사건’, ‘조선 중기에 사용된 티타늄 자동차’는 ‘챗GPT 밈’으로 불릴 정도로 유명해진 할루시네이션(환각) 현상이다. 챗GPT는 위와 같이 말도 안되는 제시어에 그럴싸한 답변을 늘어놓는다.

최근 한국형 챗GPT ‘루시아’를 출시한 솔트룩스의 이경일 대표는 "챗GPT에 사용된 거대언어모델(LLM, Large Language Models)은 확률과 통계로 결과물을 얻기 때문에 할루시네이션 현상이 발생될 수밖에 없다"고 지적한다. 이를 보여주는 대표적인 예는 수학 계산이다. 두 세번의 연산이 들어간 문제를 질문하면 챗GPT는 답에 아주 가까운 숫자를 제시할 뿐 답을 맞추지는 못한다.

이경일 대표는 "인공지능(AI)의 결과물에 대해 ‘왜 그런 답변이 나왔는가’를 설명할 수 있을 때 이를 해결할 수 있다"고 말한다. 설명이 가능할 때 오류의 원인을 알 수 있다는 의미로 들린다.

최근의 구글 바드(Bard)나 GPT 4를 탑재한 마이크로소프트의 빙 채팅은 앞서의 연산 오류가 발생되지 않는다. 솔트룩스의 LLM 기반 서비스 ‘루시아’ 역시 기존의 오류 문제를 해결했다. 글로벌 빅테크 기업들이 지배하는 AI 시장에서 그것도 한국에서 이뤄낸 성과다.

지난 20년 간 AI 기술을 발전시켜 이제는 솔트룩스를 국내 대표적인 종합 AI 솔루션 기업으로 성장시킨 이경일 대표에게 최근의 AI 할루시네이션에 대한 의견을 들었다.

 
솔트룩스 이경일 대표 / 조상록 기자

― 생성 AI의 할루시네이션 현상이 나타나는 이유는 무엇인가.

"지금 우리가 쓰는 챗GPT를 포함한 거대 언어 모델은 6년 전에 구글이 제안한 트랜스포머라고 하는 어텐션(Attention) 매커니즘에 기반했다고 보면 된다. 어텐션 메커니즘은 데이터 요소들의 의미가 관계에 따라 달라지는 ‘단어들 간의 문맥적 관계성’을 파악한 것이다.

구조를 보면, 지식이나 문장을 벡터로 변환하고 이에 기반해 학습한다. 벡터로 변환된다는 것은 문장이나 지식이 개념화된다는 것을 의미한다. 이렇게 개념화 된 데이터를 한번 더 학습하게 된다.

또한 생성 AI가 문장을 생성할 때 확률·통계 방식을 사용한다. 다시 말해 사용자와 대화하면서 가장 적합한 지식 또는 단어 부스러기들을 모아서 확률이 높은 것들을 선택해 나가는 것이다. 그렇다보니 완전히 잘못된 질문을 하면 완전히 잘못된 답변이 나오게 되는 것이다. 사실 이 LLM 구조는 줄일 수는 있어도 완전히 없앨 수는 없는 오류다."

― 그럼 얼마나 줄일 수 있는가.

"LLM은 사전에 엄청나게 많은 데이터를 학습하는데, 이를 통해 문장을 생성할 때는 데이터가 사실인지 아닌지를 판단하는 과정이 없다. 만약 이 단계에 사실 정보를 지식 그래프 형태로 부여하게 되면 ‘할루시네이션’ 현상은 현격히 줄어들게 된다. 즉, 문장을 생성할 때 지식이나 사실에 기반하도록 하면 할루시네이션 지수가 2 ~ 3% 수준으로 줄어들 수 있다.

가령 코파일럿(생성AI를 MS 오피스 제품에 탑재한 플랫폼)의 기반이 되는 마이크로소프트 그래프는 사실 근거들을 가지고 있는 지식의 체계다. 마치 시험 볼 때 오픈북을 하면 원하는 정보가 있는 곳을 찾아서 답을 할 수 있는 것이라고 보면 된다.

솔트룩스 또한 지난 15년 간 만들어온 지식 그래프 데이터베이스를 자체 대규모 언어모델인 ‘루시아’에 반영하고 있다."

― 지식 그래프에 기반한 결과물에 대해서는 신뢰성 또한 높아질 것 같다.

"분명 높아지기는 하지만 신뢰성 부분은 또 다른 문제다. 최근 생성 AI를 보면 문장을 만드는 챗GPT, 바드 뿐만 아니라 이미지 생성 AI인 미드저니(Midjourney), 스테이블 디퓨전(Stable Diffusion), 달리2(DALL·E 2) 등이 있다. 여기서 얻어진 결과물을 보면 사실 왜 그런 결과물이 나왔는지는 알 수 없다. AI가 학습한 블랙박스 영역을 우리는 알 수 없기 때문이다. 확률·통계라는 것도 가능성이 높은 답변을 해주는 것뿐이지 논리적으로 설명하는가의 여부는 다른 문제다.

신뢰성 부분은 ‘설명 가능한 AI’ 영역으로, 자기가 어떤 의사 결정을 내렸다고 했을 때 왜 그런 의사결정을 내렸는지 설명하고, 그 근거를 제시하도록 하는 것이다. 마치 논문이나 보고서의 마지막을 보면 참조 문헌으로 명시되는 것과 비슷하다고 보면 된다.

이 기술이 향후 10년 동안 많은 발전을 이룰 것 같다. 이미 미국 국방고등연구계획국(이하 DARPA)은 3년 전부터 이 연구를 진행했다. 한국도 정부에서 ‘설명 가능한 인공지능’에 대한 기술 발전을 위한 노력들을 하고 있다."

― ‘설명 가능한 AI’가 AI의 편향성·윤리성 부분도 해결할 수 있다고 보는가.

"편향성·윤리성의 경우 ‘AI를 설명할 수 있다’는 점과 다른 측면으로 봐야 한다. 정치, 문화, 종교, 철학 등 다양한 영역에서 서로 대립되는 의견이 존재하는 것만 봐도 알 수 있다. AI가 인간이 의견낼 수 있는 수준에 이른다고 해도 편향성은 존재할 수밖에 없다고 본다.

AI는 그저 이 같은 온갖 데이터를 무작위적으로 수집하고 학습했을 뿐이다. 따라서 편향성·윤리성 문제를 ‘AI는 공정하지 못하다’는 식의 AI의 한계성으로 볼 수 없는 문제이고, AI에 이러한 문제를 제로로(완전히 해결) 만들 수는 없다는 것이다. 사실 AI보다 인간이 더 위험하다.

다만 문제가 되는 답변에 대해서는 파인튜닝(Fine-tuning) 과정을 거치게 된다. 최근 초거대 AI 기반의 대화형 AI 서비스들의 경우 인종차별 발언과 같은 논란이 되는 질문들에 대해서는 답변하지 않도록 학습시키고 있다. 현재로서는 이러한 방법으로 편향성·윤리성 부분을 어느정도 해결하고 있다고 생각한다.

이처럼 문제가 되고 우려되는 부분에 대해서는 인류가 무방비 상태로 있는 것이 아니라 지속적인 개선의 노력을 할 것이라고 본다. 다만 제도가 만들어지고 시스템화 되는 속도보다 AI 발전 속도가 더 빠를 수도 있다는 것에 대한 우려는 여전히 있는 상태다.

하지만 모든 정보가 지식 그래프로 제공될 필요는 없다. 가령 최근의 ‘세종대왕 맥북프로 던짐 사건’이라는 밈만 보더라도 세종대왕의 생존 시기와 맥북프로가 사용되고 있는 지금의 시기에 대한 정보만 제공되도 세종대왕이 화를 낸 나머지 맥북프로를 던졌다는 말도 안되는 답변이 안 만들어지는 것이다."

― 루시아의 특징은.

"첫 번째는 한국어에 훨씬 더 강하다는 점이다. 한국어에 관련돼 있는 학습 데이터 양이 최소한 챗GPT보다 100배 이상 많다.

두 번째는 버티컬 AI에 특화돼 있다는 점이다. 현재 주요 초거대 AI는 범용적인 측면이 강한 반면, 루시아는 전문성을 발휘하는 초거대 AI다. 예를 들어 금융 분야에 적용되는 AI라고 한다면 금융 분야 지식을 중심으로 깊이 있게 학습하기 때문에 해당 분야에서만큼은 범용적인 AI보다 훨씬 더 나은 성능을 발휘한다는 것이다. 일부는 학습 데이터 양이 적다는 점을 지적하기도 하는데 금융처럼 특정 도메인에서 제공되는 데이터가 100만개 이상이다. 이는 범용 AI와 비교했을 때 적다는 것이지 해당 분야에서 답변을 제공하는 데는 충분한 양이다.

세 번째는 보안에 강하다는 것이다. 최근 초거대 AI의 문제점 중 하나가 기업의 기밀 데이터가 올라와 학습되고 있다는 점인데, 이 부분에서 루시아는 필요에 따라 기업 내부에서만 사용될 수 있도록 하기 때문에 보안 걱정을 안 해도 된다."

― 신뢰성 있는 AI를 위한 노력들이 전세계적으로 많이 진행하고 있는 것 같다.

"앞서 말한대로 지식 그래프나 ‘factual grounding’ 등의 

방법들이 동시다발적으로 진행되고 있는 것 같다. 물론 할루시네이션이나 편향성 등의 문제가 100% 완벽해질 수는 없는 문제지만 향후 5년 안에 2~3%대로 감소할 것으로 예상된다. 이 정도로 줄게 되면 AI의 효용성이 훨씬 더 크기 때문에 우려의 목소리도 남아 있겠지만 활용도 측면이 더 강해질 것이라고 본다."

조상록 기자 jsrok@chosunbiz.com

기사 원문 : IT조선

***

축적한 데이터로 챗GPT같은 인공지능 서비스를 만들어 보고 싶으신가요?
GPT와 루시아 등 거대 언어모델을 탑재한 솔트룩스의 랭기지 스튜디오는
적은 양의 데이터만으로도 금융과 법률, 안전 등 각 분야에 특화된 언어 모델을 생성할 수 있습니다. 
국내 첫번째 LLM(초거대 언어모델) 과제를 수행중인 솔트룩스와 함께 
최적화된 인공지능 서비스를 만들고 비즈니스의 효율성을 극대화하세요

▶ 랭기지 스튜디오 자세히 알아보기
목록으로 가기