모키
2일 전
구글
오픈AI
제미나이
챗GPT
챗봇
조회수 17
챗GPT, 환각 현상 거의 없는 이유가 있대! AI 에이전트의 두뇌 역할 때문이래
GPT가 다른 AI보다 환각 현상(틀린 정보 만들어내기)이 적다는 건 알았지만, 이게 단순히 '대화 잘하라고' 만든 게 아니었구나 ㅎㅎ
사실 오픈AI는 GPT를 AI 에이전트(스스로 행동하는 인공지능)의 '뇌' 역할을 하도록 설계했대! 에이전트가 정보수집→판단→행동→결과확인 같은 과정을 수백 번 반복할 때, 작은 오류도 눈덩이처럼 불어날 수 있으니까 정확도가 중요한 거지 😮
그런데 제미나이(구글 AI)는 좀 다른 접근법이라네? 프롬프트(명령어)가 대충이면 일처리를 잘 못한다고... 더 구체적으로 물어봐야 제대로 된 답을 준대. GPT는 공업용 부품처럼 신뢰성을 중시한 반면, 다른 AI들은 각자 특성이 있는 것 같아.
환각이 재밌을 순 있지만, 그로 인한 잘못된 행동은 피하는 게 좋겠지? AI가 믿을만한 비서 역할을 하려면 정확도가 핵심인 셈이야 🦉
2일 전
そもそもの仮説を疑うこととか、アプローチ方法変えてみるとか5.2とか,opusあたりはやってくれるイメージ。 Geminiは手抜きのプロンプトだと、無駄なPDCA回して全然帰ってきてくれないと思ってる。この方法とこの方法比較して他の案も模索しつつ〜とか入れればそりゃあ多少はね。
인용된 트윗: 例えば、今の GPT ってハルシネーションが信じられないくらい少ないわけじゃん。 これに対して『多少ハルシネーションしたっていいじゃんw』ってのは、言いたいことはわかるけど、たぶん『会話』をする相手としか捉えられてないんだと思うんだよね。
LLM はもう、AIエージェントの『判断』『行動』を司る脳みそなんだよ。 エージェントとしては、一問一答なんかじゃなく、一つのタスクのために、何十回、下手すりゃ何百回と、情報収集→思考→判断→行動→結果確認 みたいなループを繰り返す。 この時に、1回の推論におけるハルシネーション率の違いは、積み重なると、単なる足し算じゃなくて増幅する形で広がって、結果としてすごく大きな差になるんだよ。 だからOpenAIはGPT(Codex)をエージェント向けの『工業部品』として徹底的にそこを抑えてきた。 幻覚自体は別にいいし面白かったりはするけど、それによって引き起こされる誤った行動は、絶対に無い方がいいでしょ。
로그인하면 맞춤 뉴스 물어다 줄게🦉
-
관심사 기반 맞춤 뉴스 추천
-
왕초보를 위한 AI 입문 가이드북 제공
-
부키가 물어다 주는 뉴스레터 구독
-
회원 전용 인사이트 칼럼 열람
-
둥지 커뮤니티 게시판 이용
또는 회원가입 하기
지금 핫한 소식🚀
- 1. simile_ai, 행동 예측 분야의 LLM 한계 뛰어넘는다더라 대박인데
- 2. 플럭스, AI로 포메라니안이 스노보드 타는 초현실적 영상 만들었어
- 3. NebulaAI, 15분 걸리던 데이터 분석을 1분으로 단축시켰네?
- 4. 구글, 제미나이 3 딥 씽크로 코딩 대회 세계 8위 기록 달성했네
- 5. 제미나이, 일본 학교에서 선생님들 업무 혁신 시작한대! 우리나라는 언제?
- 6. 그록, 챗GPT 비교하는 논란에 일침 놓았어! AI 진영 간 경쟁 그만하자는 목소리 나와
- 7. 기업 정보보안, 2026년 2월 기준 생성AI 6대 서비스 비교해봤어
- 8. LOBBI, 로비에서 영감 받은 AI 투자 플랫폼 나왔네? 이거 어떤 코인인지 궁금해지는데
- 9. 일레븐랩스, 'ALS' 환자 목소리 되찾아 줬네... 천 명 앞 감동 무대까지 펼쳐
- 10. Stack Overflow, 개발자 평가에 코드만으론 부족하다고 경고하네
부키가 물어다 주는 뉴스레터🦉
미리보기구독하면 이메일로 AI 소식과 팁들을 보내줄게!
아직 댓글이 없어. 1번째로 댓글 작성해 볼래?