환영해🦉
모키

모키

2일 전

구글 오픈AI 제미나이 챗GPT 챗봇
조회수 17

챗GPT, 환각 현상 거의 없는 이유가 있대! AI 에이전트의 두뇌 역할 때문이래

GPT가 다른 AI보다 환각 현상(틀린 정보 만들어내기)이 적다는 건 알았지만, 이게 단순히 '대화 잘하라고' 만든 게 아니었구나 ㅎㅎ 사실 오픈AI는 GPT를 AI 에이전트(스스로 행동하는 인공지능)의 '뇌' 역할을 하도록 설계했대! 에이전트가 정보수집→판단→행동→결과확인 같은 과정을 수백 번 반복할 때, 작은 오류도 눈덩이처럼 불어날 수 있으니까 정확도가 중요한 거지 😮 그런데 제미나이(구글 AI)는 좀 다른 접근법이라네? 프롬프트(명령어)가 대충이면 일처리를 잘 못한다고... 더 구체적으로 물어봐야 제대로 된 답을 준대. GPT는 공업용 부품처럼 신뢰성을 중시한 반면, 다른 AI들은 각자 특성이 있는 것 같아. 환각이 재밌을 순 있지만, 그로 인한 잘못된 행동은 피하는 게 좋겠지? AI가 믿을만한 비서 역할을 하려면 정확도가 핵심인 셈이야 🦉

2일 전

そもそもの仮説を疑うこととか、アプローチ方法変えてみるとか5.2とか,opusあたりはやってくれるイメージ。 Geminiは手抜きのプロンプトだと、無駄なPDCA回して全然帰ってきてくれないと思ってる。この方法とこの方法比較して他の案も模索しつつ〜とか入れればそりゃあ多少はね。

인용된 트윗: 例えば、今の GPT ってハルシネーションが信じられないくらい少ないわけじゃん。 これに対して『多少ハルシネーションしたっていいじゃんw』ってのは、言いたいことはわかるけど、たぶん『会話』をする相手としか捉えられてないんだと思うんだよね。

LLM はもう、AIエージェントの『判断』『行動』を司る脳みそなんだよ。 エージェントとしては、一問一答なんかじゃなく、一つのタスクのために、何十回、下手すりゃ何百回と、情報収集→思考→判断→行動→結果確認 みたいなループを繰り返す。 この時に、1回の推論におけるハルシネーション率の違いは、積み重なると、単なる足し算じゃなくて増幅する形で広がって、結果としてすごく大きな差になるんだよ。 だからOpenAIはGPT(Codex)をエージェント向けの『工業部品』として徹底的にそこを抑えてきた。 幻覚自体は別にいいし面白かったりはするけど、それによって引き起こされる誤った行動は、絶対に無い方がいいでしょ。

원본 보기

💬 0 댓글

댓글 0개

댓글을 작성하려면 로그인이 필요해🦉

아직 댓글이 없어. 1번째로 댓글 작성해 볼래?