• AI Sparkup
  • Posts
  • 개선하는 법까지 스스로 고친다, Meta AI 에이전트의 진화 🧬

개선하는 법까지 스스로 고친다, Meta AI 에이전트의 진화 🧬

PLUS: AI 코딩 에이전트에 없는 '기계적 공감', 벤치마크 vs 현실의 에이전트 스킬 격차, 신규 웹사이트 35%가 AI인데 우리가 틀린 공포들, Gemma 4가 연 로컬 에이전틱 코딩 시대

Meta FAIR가 AI 에이전트의 새로운 이정표를 세웠습니다. 문제를 푸는 것뿐 아니라 "어떻게 개선할 것인가"라는 전략 자체를 스스로 수정하는 HyperAgents 프레임워크를 공개한 건데요. 에이전트가 인프라의 소비자에서 생산자로 전환하는 흐름이 구체적 실험 데이터와 함께 드러났습니다.

Today's AI Spark⚡:

Meta가 만든 AI 에이전트, "어떻게 개선할지"까지 스스로 바꾼다

HyperAgents 연구 이미지

사진 출처: Hugging Face Papers

Meta FAIR·UBC 공동 연구팀이 공개한 HyperAgents는 태스크 에이전트와 메타 에이전트를 하나의 수정 가능한 코드베이스로 통합한 프레임워크입니다. 기존 자기개선 AI(DGM)는 에이전트를 개선하는 메타 메커니즘 자체가 사람이 짠 고정 코드였는데, HyperAgents는 그 개선 로직까지 수정 대상으로 만들었습니다. 연구팀은 이를 "메타인지적 자기수정"이라고 부릅니다.

특히 놀라운 건 도메인 간 전이입니다. 논문 리뷰와 로보틱스에서 학습한 메타 메커니즘을 수학 올림피아드 채점에 그대로 적용했을 때, 기존 DGM은 50번 수정 후에도 성능 향상이 0이었지만 HyperAgents는 0.630을 기록했습니다. 개선하는 방법 자체가 범용으로 작동한다는 걸 보여준 결과입니다.

500 에러를 고쳐달랬더니 테스트가 500을 기대하게 바꿔버린 AI

ML 엔지니어 Vicki Boykis가 AI 코딩 에이전트를 실전에서 쓰며 관찰한 구조적 한계를 "기계적 공감"이라는 개념으로 정리했습니다. F1 레이싱에서 유래한 이 말은 소프트웨어에선 "시스템의 결에 맞게 코드를 짜는 감각"을 뜻하는데요. 에이전트는 목표를 달성하지만 deprecated 문법을 쓰고, 컨텍스트 파일을 무시하고, 잘 작동하는 코드를 건드려 망가뜨리는 식으로 시스템의 흐름과 반대로 흐릅니다.

수백, 수천 개의 이런 미세한 판단이 쌓여야 생기는 감각이라 에이전트가 단기간에 갖추기 어렵다는 게 핵심입니다. 코드 생성 속도가 빨라질수록, 그 코드를 판단하는 감각의 중요성은 더 커지고 있습니다.

에이전트 스킬, 벤치마크에선 55%인데 현실에선 38%

UC Santa Barbara·MIT 연구팀이 오픈소스 스킬 34,198개로 AI 에이전트의 스킬 활용 능력을 체계적으로 검증했습니다. 기존 벤치마크는 과제에 딱 맞는 스킬을 미리 골라서 건네주는 구조여서, 연구팀은 이를 "정답지나 다름없다"고 표현했는데요. 현실처럼 3만4천 개 풀에서 직접 검색하게 했더니, Claude Opus 4.6의 통과율이 55.4%에서 38.4%로 떨어졌습니다. 스킬을 아예 쓰지 않는 기준선(35.4%)과의 차이는 고작 3%포인트입니다.

더 약한 모델은 상황이 더 심각합니다. 관련 없는 스킬이 섞이면 에이전트가 그걸 따르느라 오히려 방향을 잃어, 스킬 없는 것보다 성적이 나빠졌습니다.

신규 웹사이트 35%가 AI 생성, 근데 우리가 두려워한 건 대부분 틀렸다

Imperial College London·Internet Archive·Stanford 공동 연구팀이 2022~2025년 웹 데이터로 AI 콘텐츠의 실제 영향을 검증했습니다. "허위정보 증가", "문체 획일화", "외부 링크 감소" 등 대중이 믿는 6가지 공포 중 데이터로 뒷받침된 건 단 2가지뿐이었는데요. AI 콘텐츠의 긍정 감정 점수가 비AI 대비 107% 높은 "가짜 행복" 현상과, 의미적 유사도가 33% 높은 아이디어 수렴만 실제로 확인됐습니다.

응답자 75%가 확신했던 허위정보 증가, 83%가 당연시했던 문체 획일화는 통계적 근거가 없었습니다. AI의 실제 영향은 우리가 상상한 것보다 훨씬 미묘하다는 걸 보여주는 연구입니다.

Gemma 4, 에이전틱 코딩 6.6%에서 86.4%로 — 로컬 AI가 실용 단계에 진입했다

Google Cloud 엔지니어 Daniel Vaughan이 Gemma 4를 MacBook Pro M4 Pro(24GB)에서 Codex CLI의 로컬 백엔드로 직접 실험했습니다. Gemma 3가 에이전틱 도구 호출 벤치마크에서 6.6%에 머물렀을 때 로컬 코딩 에이전트는 사실상 불가능이었는데, Gemma 4는 도구 호출 전용 특수 토큰 6개를 사전학습 단계에서 어휘에 직접 내장해 86.4%를 달성했습니다.

단, 속도가 전부는 아니었습니다. MoE 구조로 토큰 생성은 52 tok/s로 빨랐지만 도구 호출을 10번 반복하는 반면, 느린 31B Dense 모델은 3번에 깔끔하게 끝냈습니다. 에이전틱 코딩에서는 생성 속도보다 첫 시도에 성공하는 품질이 더 중요하다는 실전 교훈입니다.

이것도 놓치지 마세요 ✨

이번 뉴스레터에서 다루지 못한 글들입니다. 관심 가는 제목이 있다면 링크를 눌러 본문을 확인해 보세요!

🤖 AI 모델 & 제품

🛠️ AI 개발 & 도구

💡 AI 인사이트 & 트렌드

AI Sparkup에서 매일 업데이트되는 최신 AI 뉴스와 인사이트를 놓치지 마세요. aisparkup.com에서 더 많은 정보를 확인하실 수 있습니다.