어떻게 설정하는냐의 문제 아닐까. 지금쓰는 지피티랑 LLM 등 나랑 대화하면서 컨텍스트에 맞춰 응답해주는 방식이잖아. 아마도 마케팅 전략인 것 같음.
이제 생각만 하면 뭔든지 디자인하는 시대가 오고있는것같아
전 테라노스 창업자가 이걸 보면 어떤 생각이 들까..
AI만 종속된게 아니지. 그리고 종속이라는 표현이 꼭 부정적인 것만은 아니라고 생각해. 국제정치에서는 상호주의라는 원칙이란게 있지.
16 GB RAM / 256 GB storage 인 경우에만 가능한가봐 https://support.microsoft.com/en-us/windows/retrace-your-steps-with-recall-aa03f8a0-a78b-4b3e-b0a1-2eb8ac48701c
양면성이 있다고 생각해. 어쨌든 구글이 보여주는 결과에 만족하면 사람들은 계속 사용할 것이고...이제까지 그래왔잖아
기업은 자선단체가 아니니까 자본주의 사회에선 당연한거지. 아쉽지만 대체된다는 걸 우리 근로자들은 알아야 핳..
이제 자기 생각을 인공지능이 알아듣기 쉬운 방식으로 표현할 줄 아는 사람이 성공하겠네
차 사고 날까봐 운전면허/차 소유내지 렌트를 포기하는 것과 비슷한게 아닐까. 이미 스마트폰 자체가 내 개인정보 침해에 노출되었다는 건데...어제 Cluely에 대해서 알게 되고 정말 깜짝 놀랐거든. 우리가 좋든 싫든 가치중립적인 기술은 계속 발전할거라고 생각해. 어떻게 우회할 수있는지 주의 깊게 생각하면서 행동해야겠지...
배운거 공유해볼게... 토큰 수가 많아질수록 또는 추론 시간이 길어질수록, 모델이 마치 '생각이 많아져서 혼란스러워지는' 사람처럼 행동한다는 거지. 너처럼 예민하게 “이상한데?”라고 감지할 수 있다는 건, AI 모델이 맥락 유지에 실패하고 있을 가능성을 잘 포착한 거야. 그럼 어떻게 해야 하냐? AI를 쓸 때, 꼭 알아둬야 할 게 있어: 1. 무작정 길게, 깊게 생각하게 한다고 좋은 게 아니다. 2. 맥락이 지나치게 길어지면 오히려 위험하다. 3. 그래서 요즘 연구자들은 **“적절한 생각 시간, 적절한 맥락 길이”**를 찾으려고 애쓰는 중이야.