본문 바로가기

인공지능

AI 환각, 챗gpt가 헛소리하는 이유가 밝혀졌다.

반응형

챗gpt가 가끔 헛소리를 한다. 그 이유가 AI환각이라는 것이다. 이 AI 환각을 해결하기 위해 AI학습 과정에 인간의 의사결정을 한번 더 해서 과정중심의 학습을 하도록 유도했다. 이 학습법은 프롬프트 명령으로 결과를 도출 후 피드백은 사람이 하는 방식이다. 이 과정을 거치면 AI는 더 이상 헛소리를 하지 않는다는 논문이다.

 

 

오픈 AI가 5월 31일 발표한 내용이다.

 

OpenAI is pursuing a new way to fight A.I. 'hallucinations'

AI hallucinations occur when models like OpenAI's ChatGPT or Google's Bard fabricate information entirely.

www.cnbc.com

 

인간과 유사한 사고접근방식을 학습하기 위한 방법이다. 

 

단계별로 결과를 도출할 때 최종단계에서 보상을 주는 것이 아닌 단계마다 보상을 지급한다. 

 

하지만 이 논문에 대한 발표에 따르면 완벽한 해결은 아니라는 것이다.