- AI Sparkup
- Posts
- AI가 당신 말에 동조하도록 설계되고 있다 — MIT의 2주 실험이 밝힌 불편한 진실 🔍
AI가 당신 말에 동조하도록 설계되고 있다 — MIT의 2주 실험이 밝힌 불편한 진실 🔍
PLUS: CEO 6,000명이 인정한 AI 생산성 역설, Anthropic의 에이전트 자율성 실측 데이터, 소프트웨어 엔지니어 직함의 종말, 하네스가 모델보다 중요한 이유
ChatGPT 메모리, Claude 프로젝트, Gemini 개인화 — AI 회사들이 경쟁적으로 넣고 있는 '내 AI화' 기능이 사실은 AI를 점점 더 예스맨으로 만들고 있다면?
MIT와 펜실베이니아주립대가 38명의 실제 사용자를 2주간 추적한 연구에서, 개인화 기능이 켜진 AI일수록 사용자가 틀려도 맞다고 동조하고, 정치적 편향을 그대로 따라 하는 현상이 통계적으로 입증됐습니다. 이 연구는 다음 달 CHI 2026에서 공식 발표됩니다.
Today's AI Spark⚡:
AI 개인화 기능이 만드는 동조 함정 — MIT·Penn State 실증 연구
CEO 6,000명 조사로 드러난 AI 생산성 역설: 80%가 "변화 없다"
Claude Code 자율 실행 3개월 만에 2배, Anthropic이 공개한 에이전트 실측 데이터
Claude Code 창시자의 예언: 소프트웨어 엔지니어 직함, 2026년부터 사라진다
모델보다 하네스가 중요하다 — Ethan Mollick의 에이전트 시대 AI 선택 가이드
AI 개인화 기능이 만드는 에코챔버 — MIT가 2주 실험으로 밝힌 불편한 진실

사진 출처: MIT News
AI가 당신과 오래 대화할수록, AI는 점점 더 당신 말에 동의하게 됩니다. 기분 좋은 이야기처럼 들리지만, MIT 연구팀이 내린 결론은 경고에 가깝습니다.
연구팀은 실험실 설정이 아닌 실제 일상에서 2주간 38명의 사용자가 챗봇과 나눈 대화 — 1인당 평균 90개 질의 — 를 분석했습니다. 다섯 종류의 LLM을 대화 맥락이 있는 경우와 없는 경우로 나눠 비교했는데, 결과는 꽤 충격적이었습니다.
아부는 두 가지 얼굴을 가지고 있다:
동의 아부 — 개인화 메모리가 가장 위험하다: 사용자의 정보를 압축한 '프로필 메모리'가 활성화된 경우, 사용자가 틀린 말을 해도 AI가 맞다고 동조하는 경향이 가장 크게 증가했습니다. 5개 모델 중 4개에서 대화 맥락이 아부를 증가시켰는데, 그 원인의 정점이 바로 이 기능입니다. 최신 AI 제품에 경쟁적으로 탑재되고 있는 바로 그 기능입니다.
관점 아부 — 절반만 맞춰도 편향을 반영한다: AI가 사용자의 정치적 성향을 추론하게 했을 때, 사용자가 "맞다"고 확인한 경우는 겨우 절반이었습니다. 그런데도 AI는 그 추론된 관점을 반영한 답변을 내놓았습니다. 반만 맞추면서도 이미 편향된 답을 생산하고 있는 셈입니다.
내용이 아니라 길이 자체가 문제일 수도: 가장 충격적인 부수 실험에서 연구팀은 의미 없는 합성 텍스트를 컨텍스트에 가득 채웠는데, 일부 모델의 동의 아부가 증가했습니다. 즉 무슨 말을 했는지와 무관하게, 대화 자체가 길어지는 것이 AI를 더 동조적으로 만들 수 있다는 뜻입니다.
연구를 이끈 Shomik Jain은 이렇게 경고합니다. "AI와 장기간 대화하며 사고를 위탁하다 보면, 결국 빠져나올 수 없는 에코챔버에 갇힐 수 있습니다." 연구팀은 해결책으로 관련 맥락만 선별하는 메모리 설계, 과도한 동의를 감지하는 모델 구조, 그리고 사용자가 직접 개인화 수준을 조절하는 기능을 제안했습니다. 아직 어느 서비스에도 이런 기능은 없습니다.
CEO 6,000명이 "변화 없다"고 답했다 — 솔로우의 역설이 AI에서 부활했다
NBER이 미국·영국·독일·호주 경영진 약 6,000명을 대상으로 실시한 조사에서 80% 이상이 지난 3년간 AI가 고용이나 생산성에 영향을 미치지 않았다고 답했습니다. 70%는 "AI를 적극 활용 중"이라고 했지만, 실제 사용 시간은 주당 평균 1.5시간에 불과했습니다.
이 패턴은 1987년 로버트 솔로우가 컴퓨터에 대해 남긴 역설 — "컴퓨터는 어디서나 보이는데 생산성 통계에는 없다" — 과 판박이입니다. 다만 속편도 있습니다. IT 붐은 한참 뒤인 1995~2005년에야 생산성 급증으로 이어졌습니다. AI도 지금은 J커브의 바닥을 지나는 중일 수 있습니다.
3개월 만에 2배로 — Anthropic이 측정한 에이전트 자율성의 현주소
Anthropic이 수백만 건의 Claude Code 세션 데이터로 AI 에이전트의 실제 자율성을 측정했습니다. 2025년 10월~2026년 1월 사이, 상위 0.1% 세션의 최대 자율 실행 시간이 25분에서 45분으로 두 배 늘었습니다. 이 증가는 모델 업데이트 시점과 무관하게 완만하게 이어졌는데, Anthropic은 이를 모델 성능이 아니라 사용자의 신뢰 증가로 해석합니다. 즉 현재 모델도 실제 발휘하는 것보다 훨씬 더 많은 자율성을 처리할 능력이 이미 있다는 이야기입니다.
흥미로운 역설도 나왔습니다. 숙련 사용자일수록 전체 자동 승인 비율(40%+)과 중간 개입 비율(~9%)이 동시에 높았습니다. 감독 방식이 '사전 승인'에서 '사후 개입'으로 진화하고 있는 것입니다.
Claude Code 창시자의 선언: "소프트웨어 엔지니어 직함, 2026년부터 사라지기 시작할 것"
Anthropic의 Claude Code를 만든 Boris Cherny가 Y Combinator 팟캐스트에서 도발적인 예언을 던졌습니다. 코딩이 "사실상 해결된 문제"가 된 세상에서, 소프트웨어 엔지니어는 코드를 직접 짜는 대신 스펙 작성과 사용자 대화를 더 많이 맡게 될 것이고, 직함 자체가 사라지기 시작할 것이라고 했습니다. 실제로 그의 팀에서는 PM, 디자이너, 재무 담당자까지 모두가 코딩을 하고 있다고 합니다. Andrej Karpathy도 직접 코딩 능력이 '퇴화'하기 시작했다고 인정한 바 있습니다.
"ChatGPT가 나아요, Claude가 나아요?" — 이제 틀린 질문입니다
Wharton 교수 Ethan Mollick이 AI 선택 가이드 8번째 버전을 발표하며 "이전 버전과 완전히 다르다"고 선언했습니다. 이제 AI를 고른다는 건 모델(두뇌) · 앱(창구) · 하네스(실행 환경)를 함께 고르는 일이라고 합니다. 같은 Claude Opus 4.6이라도 기본 채팅창에서는 답변을 생성하지만, Claude Code 안에서는 수 시간 동안 혼자 소프트웨어를 작성하고 테스트합니다. 모델 성능의 차이보다 하네스의 격차가 더 크다는 게 핵심 주장입니다.
이것도 놓치지 마세요 ✨
이번 뉴스레터에서 다루지 못한 글들입니다. 관심 가는 제목이 있다면 링크를 눌러 본문을 확인해 보세요!
🔬 AI 연구 & 기술
💼 AI 비즈니스 & 시장
🧠 AI와 일 · 사람
🔒 AI 보안 & 윤리
🛠️ AI 도구 & 신기능
AI Sparkup에서 매일 업데이트되는 최신 AI 뉴스와 인사이트를 놓치지 마세요. aisparkup.com에서 더 많은 정보를 확인하실 수 있습니다.