쳇gpt 불편해하는 사람들이 꼽는 대표적인 문제가 환각, 할루시네이션 문제이다. hallucination 거짓된 정보를 만들어내는 것이 문제인데 나아지고있다고 하지만 그 속성이 어떻게든 대답을 하는 기계이다보니 이 문제가 생긴다. 차라리 모른다,라고 대답하면 좋을텐데 말이다. 예를 들어 이런거다.
아침에 BARD에게 아이폰 메시지 수신에 필터를 넣을 수 잇냐고 물어봤더니 가능하다면서 설정을 바꾸고 어쩌구저쩌구.. 하지만 실제로는 정작 그런 메뉴는 아이폰에 없다. 그래서 너 왜 거짓말을 하니 모르면 모른다고 하는게 안되나? 라고 물었다.
그랬더니 미안하긴 한데. 지가 그렇게 만들어져있단다.
답변하는 방식을 바꾸겠다고는 하는데 믿을 수가 없다.
덜 배워서/못배워서 '모른다'고 못한다는 그런 희한한 변명을...
그래서 이제 chatGPT 4에게 물어봤다. 4는 일단 아이폰에 메시지 필터기능이 없다고 정확히 답을 했다.
그럼 왜 모른다고 답을 해야 할때 모른다고 답을 할 수 있는 지 물어봣다.
결론 어떻게든 답을 하려고 한다는 쪽이다. 겸손하지도 않고 인공지능은 거짓말이 일상화되게 되는 셈이다.
반응형
'기술, 테크놀로지' 카테고리의 다른 글
어떻게 시리는 애플이 AI 에 대하여 주의를 갖도록 만들었나? - 크롬 번역 (5) | 2024.10.05 |
---|---|
주요 테크 회사들 AI 서비스 네이밍 관련 기사 Digiday 번역 (0) | 2023.12.13 |
트위터 '새'는 누가 어떻게 만들었나 - 뉴욕타임즈 기사 번역 (0) | 2023.07.25 |
OpenAI 챗GPT를 마케팅에 활용하기 - 테크크런치 기사 번역 (0) | 2023.07.23 |
유럽 기업들, EU AI 규제법에 우려 (0) | 2023.07.01 |
댓글