- AI Sparkup
- Posts
- AI 많이 쓸수록 혼자서는 못 하게 된다, 두 연구가 밝힌 의존성의 역설 🧠
AI 많이 쓸수록 혼자서는 못 하게 된다, 두 연구가 밝힌 의존성의 역설 🧠
PLUS: Google 해커톤이 밝힌 에이전트 실패 패턴, ChatGPT 인용 결정의 3가지 법칙, Qwen 오픈소스 포기의 의미, 하네스 엔지니어링의 부상
AI를 쓸수록 생산성은 올라가는데, 정작 AI 없이는 점점 아무것도 못 할 것 같은 느낌. 낯설지 않으시죠? Middlesex University와 MIT·Carnegie Mellon이 각각 독립적으로 진행한 두 연구가 이 감각에 학문적 근거를 더했습니다. 핵심은 의외로 단순한데요. AI가 문제가 아니라, 우리가 무의식적으로 AI에게 '생각'을 맡기는 방식이 문제라는 겁니다.
Today's AI Spark⚡:
AI를 많이 쓸수록 혼자서는 못 하게 된다, 두 연구의 수렴점

Middlesex University가 1,923명을 대상으로 진행한 연구에서, AI 답변을 그대로 수용한 참가자들은 독립적 판단에 대한 자신감이 눈에 띄게 떨어졌습니다. 반면 AI의 답변에 의문을 제기하고 수정한 참가자들은 자신감이 유지됐는데요. 같은 도구를 썼지만 결과는 완전히 달랐습니다. MIT·Carnegie Mellon의 1,222명 대상 실험은 더 충격적입니다. 불과 10분간 AI를 사용한 후 접근이 차단되자, 참가자들의 추론 능력과 과제 지속 의지가 빠르게 떨어졌습니다.
두 연구가 수렴하는 결론은 하나입니다. AI 자체가 나쁜 게 아니라, AI에게 생각을 맡기는 습관이 문제라는 것. Wharton 교수 Ethan Mollick는 이를 운동에 비유합니다. 더 쉬운 방법이 있어도 직접 드는 이유는, 그 과정 자체가 목적이기 때문이라고요.
LLM에게 계산을 시키면 반드시 실패한다, Google 해커톤이 증명한 것
Google Cloud AI Agent Bake-Off에서 여러 팀이 같은 실수를 저질렀습니다. 복리 이자, 잔액 계산 같은 금융 연산을 LLM에게 맡긴 거죠. 결과는 대규모 검증 오류였습니다. 성공한 팀의 패턴은 명확했는데요. LLM은 의도 파악과 추론에만 쓰고, 실제 계산은 결정론적 코드에 넘기는 구조를 택했습니다.
또 하나 눈에 띈 패턴은 모듈화입니다. 하나의 거대한 에이전트 대신 전문 서브에이전트들을 병렬로 돌린 팀이 처리 시간을 1시간에서 10분으로 줄였습니다. AI가 할 수 있는 일과 AI에게 맡겨도 되는 일은 다르다는, 단순하지만 강력한 교훈입니다.
ChatGPT는 내 글을 왜 인용하지 않을까, 140만 프롬프트의 답
Ahrefs가 140만 건의 ChatGPT 프롬프트를 분석해 인용 결정 메커니즘을 파고들었습니다. 가장 놀라운 발견은 채널별 격차인데요. 일반 검색 채널의 인용률은 88.46%인 반면, 레딧은 1.93%에 불과했습니다. ChatGPT는 레딧에서 대중 의견을 파악하되, 출처로는 거의 인정하지 않는 셈입니다.
인용 여부를 결정하는 핵심 변수는 제목과 '팬아웃 쿼리'의 의미적 유사도였습니다. ChatGPT는 사용자 질문을 내부적으로 여러 하위 질문으로 분해하는데, 이 하위 질문과 제목이 잘 맞는 페이지가 일관되게 더 높은 인용률을 보였습니다. 페이지 내용보다 제목이 먼저 작동하는 필터라는 점이 핵심입니다.
Qwen이 처음으로 오픈소스를 포기했다, 그 의미
Alibaba가 Qwen 시리즈 역사상 처음으로 가중치를 비공개한 Qwen3.6-Max-Preview를 출시했습니다. 6개 코딩 벤치마크에서 1위, Artificial Analysis 203개 모델 중 3위라는 인상적인 성적표인데요. 중간 티어(Qwen3.6-35B-A3B)는 여전히 오픈소스로 개발자를 끌어들이고, 최상위 티어는 API 전용으로 수익을 잡는 구조가 선명해졌습니다.
이 패턴은 Meta가 Llama 프론티어 티어를 닫았던 것과 같은 플레이북입니다. "중국 오픈소스 = 대안"이라는 공식에 처음으로 균열이 생긴 셈이죠.
모델이 같은데 성능이 다르다면, 하네스를 의심하라
같은 Claude Opus 4.6인데 누군가는 훨씬 빠르고 정확한 결과를 냅니다. 구글 엔지니어링 디렉터 Addy Osmani가 그 차이의 정체를 짚었는데요. Terminal Bench 2.0에서 같은 모델로 하네스만 바꿨더니 순위가 Top 30에서 Top 5로 뛰었습니다. 시스템 프롬프트, AGENTS.md, 도구 설명, 샌드박스 환경 — 모델 주변의 모든 스캐폴딩이 하네스이고, 그게 진짜 성능 레버라는 겁니다.
Osmani는 에이전트의 실수를 '래칫'처럼 다루라고 합니다. 한 번 조인 나사가 풀리지 않듯, 실수가 쌓일수록 하네스가 강해지는 구조를 만들라는 거죠. "모델 탓"으로 넘기던 습관을 바꿀 때입니다.
이것도 놓치지 마세요 ✨
이번 뉴스레터에서 다루지 못한 글들입니다. 관심 가는 제목이 있다면 링크를 눌러 본문을 확인해 보세요!
🎨 AI 제품 & 서비스
🔬 AI 분석 & 인사이트
🌐 AI 생태계 & 비즈니스
AI Sparkup에서 매일 업데이트되는 최신 AI 뉴스와 인사이트를 놓치지 마세요. aisparkup.com에서 더 많은 정보를 확인하실 수 있습니다.