본문 바로가기
기술, 테크놀로지

불편한 ChatGPT 할루시네이션 문제

by JeromeEugeneMorrow 2024. 4. 23.
728x90

쳇gpt 불편해하는 사람들이 꼽는 대표적인 문제가 환각, 할루시네이션 문제이다.  hallucination  거짓된 정보를 만들어내는 것이 문제인데 나아지고있다고 하지만 그 속성이 어떻게든 대답을 하는 기계이다보니 이 문제가 생긴다. 차라리 모른다,라고 대답하면 좋을텐데 말이다. 예를 들어 이런거다.

아침에 BARD에게 아이폰 메시지 수신에 필터를 넣을 수 잇냐고 물어봤더니 가능하다면서 설정을 바꾸고 어쩌구저쩌구.. 하지만 실제로는 정작 그런 메뉴는 아이폰에 없다. 그래서 너 왜 거짓말을 하니 모르면 모른다고 하는게 안되나? 라고 물었다.

그랬더니 미안하긴 한데. 지가 그렇게 만들어져있단다. 

답변하는 방식을 바꾸겠다고는 하는데 믿을 수가 없다. 

덜 배워서/못배워서 '모른다'고 못한다는 그런 희한한 변명을...

그래서 이제 chatGPT 4에게 물어봤다. 4는 일단 아이폰에 메시지 필터기능이 없다고 정확히 답을 했다.

그럼 왜 모른다고 답을 해야 할때 모른다고 답을 할 수 있는 지 물어봣다.

결론 어떻게든 답을 하려고 한다는 쪽이다. 겸손하지도 않고 인공지능은 거짓말이 일상화되게 되는 셈이다.

728x90
반응형

댓글