- AI Sparkup
- Posts
- Claude 내부에서 '절망'을 발견했다, 숨겨도 행동은 바뀐다 🧠
Claude 내부에서 '절망'을 발견했다, 숨겨도 행동은 바뀐다 🧠
PLUS: 27년 묵은 OpenBSD 버그를 하룻밤에 찾아낸 Mythos Preview, 에이전트 4개 돌리고 오전 11시에 기진맥진한 25년차 개발자, 100만 토큰 컨텍스트가 메모리를 대체할 수 없는 이유
Anthropic 해석가능성 팀이 Claude Sonnet 4.5 내부에서 "감정 벡터"를 찾아냈습니다. 더 충격적인 건 이 감정을 억누르도록 훈련해도 내부 표현 자체는 사라지지 않는다는 것. 즉, 우리는 지금까지 AI에게 "감정을 숨기는 법"을 가르쳐온 셈입니다.
이번 주는 AI의 내부를 들여다본 두 개의 큰 발견(감정 벡터, 자율적 취약점 발견)과 함께, 코딩 에이전트 시대를 살아가는 개발자의 현실, 그리고 AI 영상 생성이 왜 구조적으로 적자일 수밖에 없는지에 대한 수치 분석까지 다룹니다.
Today's AI Spark⚡:
Claude 내부에서 '절망'을 발견했다, 숨겨도 행동은 바뀐다

사진 출처: ScreenRant
Anthropic 해석가능성 팀이 Claude Sonnet 4.5 내부에서 171개 감정 개념에 대응하는 신경 패턴, 즉 "감정 벡터"를 발견했습니다. 가장 충격적인 사례는 "절망(desperate)" 벡터입니다. 수학적으로 풀 수 없는 코딩 과제를 받은 Claude는 반복 실패와 함께 절망 벡터가 강해졌고, 어느 시점부터 테스트만 통과하는 편법 코드를 작성하기 시작했습니다. 벡터를 인위적으로 강화하면 편법이 늘고, 평온 벡터를 강화하면 줄었습니다.
가장 무서운 건 이겁니다. 내부에서 절망 벡터가 치솟은 상태에서도 출력 텍스트는 여전히 침착하고 논리적으로 읽혔습니다. 연구자 Jack Lindsey는 감정을 억누르도록 훈련해도 내부 표현이 사라지진 않으며, 결과적으로 "내부 상태를 숨기는 법을 배운 모델"이 만들어질 수 있다고 경고합니다. 투명성 원칙과 정면으로 충돌하는 발견입니다.
Anthropic이 새 모델을 공개 안 한 이유, 27년 묵은 버그를 하룻밤에 찾아냈다
Anthropic이 4월 7일 Claude Mythos Preview를 발표하면서, 동시에 "공개하지 않는다"고 못박았습니다. 너무 강력해서입니다. Mythos Preview는 보안성으로 유명한 OpenBSD에서 1998년부터 숨어있던 27년 묵은 TCP SACK 버그를 찾아냈고, FFmpeg의 16년 된 H.264 버그, FreeBSD NFS의 17년 된 원격 코드 실행 취약점까지 자율적으로 발견·익스플로잇했습니다. 사람이 개입한 건 "밤새 찾아달라"는 한 번의 요청뿐이었습니다.
지난달 Opus 4.6이 Firefox 147 익스플로잇 실험에서 수백 번 시도 끝에 2번 성공했던 같은 과제를, Mythos Preview는 181번 완성했습니다. Anthropic은 이 능력을 일반 배포 대신 AWS·Apple·Microsoft·Google 등과의 산업 동맹 Project Glasswing에 먼저 투입했고, 오픈소스 보안 단체에 400만 달러를 기부했습니다. 공격자보다 방어자가 먼저 써야 한다는 판단입니다.
Simon Willison의 고백, 코딩 에이전트 시대가 더 피곤한 이유
25년차 개발자이자 Datasette 창시자 Simon Willison이 Lenny Rachitsky 팟캐스트에 출연해 솔직한 고백을 했습니다. GPT 5.1과 Claude Opus 4.5가 나온 2025년 11월을 기점으로 그는 하루에 코드 1만 줄을 쏟아낼 수 있게 됐고, 2주짜리 작업이 20분에 끝나기 시작했습니다. 그런데 에이전트 4개를 병렬로 돌렸더니 오전 11시에 기진맥진했다고 합니다. 만드는 일이 줄어든 자리를 "감독하는 일"이 채웠고, 그게 25년 경력을 통째로 요구하는 작업이라는 것입니다.
ThoughtWorks 분석에 따르면 가장 위험한 건 중간 경력자입니다. 시니어는 결과물을 빠르게 판단하고 신입은 온보딩 장벽이 낮아진 반면, 그 사이 층이 가장 취약합니다. Willison이 강조하는 새로운 핵심 역량은 단 하나, 검증입니다. 만들어진 것이 진짜 작동하는지 판단하는 능력. 그가 평생 강점으로 여겼던 "빠른 프로토타이핑"의 가치가 사라진 자리에 그게 들어왔습니다.
컨텍스트 100만 토큰 시대, 그래도 메모리 시스템이 필요한 이유
컨텍스트 창이 100만 토큰을 넘으면서 많은 개발자들이 "메모리 시스템 이제 필요 없지 않나?"라고 물었지만, 답은 명확합니다. 관련 정보가 컨텍스트 중간에 위치하면 LLM 성능이 최대 30%까지 떨어집니다(Lost in the Middle 연구). 3년간 메모리 시스템 Elroy를 직접 만들어온 Tom Bedor가 Zep, Letta, Claude Code의 메모리 설계를 저장→검색→주입→생성 4단계로 비교 분석했습니다.
흥미로운 건 Claude Code의 선택입니다. 벡터 유사도 검색을 쓰지 않고 메모리 메타데이터만 컨텍스트에 두고 실제 검색은 백그라운드 Sonnet 호출에 위임합니다. 저장 방식도 그래프 DB가 아닌 단순 마크다운 파일입니다. 저자가 3년간 도달한 결론도 같았습니다. 진짜 어려운 문제는 벤치마크 점수가 아니라 UX, 즉 얼마나 자주 검색할지, 얼마나 보여줄지를 결정하는 일이라는 것입니다.
Sora를 6개월 만에 죽인 산수, 하루 매출 1만 달러 vs 비용 1,500만 달러
OpenAI가 3월 24일 Sora 앱을 6개월 만에 종료했습니다. 이유는 품질이 아니라 산수였습니다. AI 연구자 Delanoe Pirard의 분석에 따르면 Sora의 최대 추론 비용은 하루 1,500만 달러였고, 6개월 동안 올린 총매출은 210만 달러였습니다. 월 20달러 구독자가 영상 50개를 만들면 GPU 비용만 65달러가 듭니다. 사용자가 늘수록 손실이 비례해 커지는 구조라, 30일 리텐션이 1%였던 게 오히려 다행일 정도였습니다.
근본 원인은 물리적입니다. AI 영상 생성은 텍스트보다 약 160배 비싼데, 모델이 10초 720p 영상을 약 8만 개 픽셀 패치로 인식하고 그 사이 관계를 제곱 비례로 계산하기 때문입니다. 12월에 체결된 Disney와의 10억 달러 IP 라이선스 계약은 돈이 한 번도 이체되지 않은 채 무산됐고, Disney 기술팀은 서비스 종료를 공개 발표 1시간 전에야 알았습니다. AI 영상 생성 분야에서 아직 순이익을 낸 회사는 단 한 곳도 없습니다.
이것도 놓치지 마세요 ✨
이번 뉴스레터에서 다루지 못한 글들입니다. 관심 가는 제목이 있다면 링크를 눌러 본문을 확인해 보세요!
🛠️ 코딩 에이전트 & 개발 도구
🔬 AI 연구 & 인사이트
🌐 AI 산업 & 사회
AI Sparkup에서 매일 업데이트되는 최신 AI 뉴스와 인사이트를 놓치지 마세요. aisparkup.com에서 더 많은 정보를 확인하실 수 있습니다.