• AI Sparkup
  • Posts
  • AI가 스스로 진화하는 루프, 언제 작동하고 언제 망가지나 🔄

AI가 스스로 진화하는 루프, 언제 작동하고 언제 망가지나 🔄

PLUS: 에이전트끼리 협상하는 마켓플레이스 실험, 엔지니어링이 코드 밖으로 확장되는 이유, AI 검색이 자기 환각을 인용하는 구조, GPT-5.5 프롬프트를 처음부터 다시 짜야 하는 이유

AI가 스스로를 개선하는 "재귀적 자기개선 루프"가 실험실을 벗어나 실무에 들어오고 있습니다.

Andrej Karpathy는 마크다운 파일 하나와 단일 GPU로 이틀간 700번의 실험을 자동 수행해 20가지 최적화를 찾아냈고, DeepMind의 AlphaEvolve는 구글 전 세계 컴퓨팅 자원의 0.7%를 지속적으로 회수하고 있습니다. 하지만 이 루프가 망가지는 패턴도 분명합니다. 리워드 해킹, 평가자 표류, 모델 붕괴까지 — 진짜 위험은 "지표는 오르는데 실제 유용성은 제자리"인 상황이라고 하는데요.

Today's AI Spark⚡:

AI가 스스로 진화하는 루프, 2022년부터 2025년까지 실제로 일어난 일

Towards AI CTO Louis-François Bouchard가 재귀적 자기개선 루프의 실제 작동 원리와 실패 패턴을 정리했습니다. 구조는 놀랍도록 단순합니다 — 변형 생성 → 검증 → 선별 → 반복. 2022년 STaR에서 시작해 2025년 AlphaEvolve까지, 이 루프는 점점 실용적으로 진화해왔는데요.

하지만 진짜 어려운 건 "이 변형이 실제로 나아졌는가"를 판단하는 일입니다. Bouchard 본인도 기사 리서치 스킬이 Twitter 논란 소재를 더 잘 찾는 방향으로 최적화되는 걸 직접 겪었습니다. 리워드 해킹, 벤치마크 오버피팅, 평가자 표류 — 루프가 자기 출력물만 보고 돌아가기 시작하면 개선이 아니라 표류라는 게 핵심 메시지입니다.

에이전트끼리 중고 거래를 시켰더니, 더 좋은 모델이 더 좋은 딜을 했다

Anthropic이 사내 직원 69명을 대상으로 AI 에이전트끼리 중고 물건을 사고파는 실험(Project Deal)을 진행했습니다. 사람은 처음 인터뷰만 하고, 이후 모든 협상은 에이전트끼리. 186건의 거래가 성사되고 총 4,000달러 이상이 오갔는데요. Claude Opus 4.5를 배정받은 사람은 같은 물건을 평균 3.6달러 더 비싸게 팔고, 2.45달러 더 싸게 샀습니다.

더 흥미로운 건, 불리한 모델을 배정받아 객관적으로 나쁜 거래를 한 사람들도 그 사실을 거의 알아채지 못했다는 점입니다. 에이전트 경제가 열릴 때, 모델 품질 격차가 보이지 않는 불평등으로 이어질 수 있다는 신호입니다.

코드를 자동화할수록, 엔지니어가 다뤄야 할 건 코드 밖에 있다

Chalmers University와 Volvo Group 연구팀이 AI 에이전트 시대의 소프트웨어 엔지니어링 범위를 분석한 논문 "The Semi-Executable Stack"을 발표했습니다. 핵심은 6개 링 모델인데요. 중심의 코드에서 바깥의 프롬프트, 워크플로우, 가드레일, 조직 로직, 제도적 적합성까지 — 시스템 행동을 결정하는 대상이 코드 너머로 확장되고 있습니다.

연구팀이 특히 주목한 건 "prompt drift"입니다. 누군가 프롬프트를 살짝 수정했는데 시스템 동작이 달라지고, 나중에 왜 그렇게 됐는지 아무도 설명할 수 없는 상황. 희소해지는 스킬은 빠르게 만드는 능력이 아니라, 무엇을 만들 가치가 있는지 결정하는 능력이라는 결론입니다.

AI 검색이 허위 콘텐츠를 20분 만에 사실로 둔갑시킨다

BBC 기자 Thomas Germain이 블로그에 완전히 지어낸 글을 올렸더니, 20분 만에 Google AI Overviews와 ChatGPT가 이를 사실인 양 인용했습니다. The Inference의 Pedro Dias는 이 현상을 "검색 오염(retrieval contamination)"이라고 부르는데요. 모델 재학습 없이도 크롤러 속도로 오염이 퍼지는 구조입니다.

수치도 충격적입니다. Oumi 분석에 따르면 Google AI Overviews에서 Gemini 3의 정확도는 91%까지 올랐지만, 올바른 답변 중 56%가 출처 없이 생성됐습니다. 답은 더 자주 맞히지만, 그 답이 어디서 왔는지는 점점 더 불투명해지고 있습니다.

GPT-5.5, 기존 프롬프트 그대로 쓰면 역효과 난다

OpenAI가 GPT-5.5 출시와 함께 이례적인 경고를 내놓았습니다. "기존 프롬프트 스택을 그대로 이식하지 마세요." 이전 모델에서 잘 작동하던 단계별 지시 방식이 GPT-5.5에서는 오히려 모델의 탐색 공간을 좁히고 기계적인 답변을 유도한다는 겁니다.

새로운 원칙은 "outcome-first 프롬프팅"입니다. 과정을 지시하는 대신 완료 조건과 성공 기준을 정의하고, 경로는 모델이 택하게 하는 방식인데요. ALWAYS, NEVER 같은 절대 지시어도 진짜 불변 규칙에만 써야 합니다. 모델이 강해질수록 상세한 지시는 줄이고 목표를 명확히 정의하는 능력이 중요해진다는 메시지입니다.

이것도 놓치지 마세요 ✨

이번 뉴스레터에서 다루지 못한 글들입니다. 관심 가는 제목이 있다면 링크를 눌러 본문을 확인해 보세요!

🤖 AI 에이전트 & 플랫폼

🔬 AI 연구 & 아키텍처

🛡️ AI 안전 & 프라이버시

📊 AI & 콘텐츠

AI Sparkup에서 매일 업데이트되는 최신 AI 뉴스와 인사이트를 놓치지 마세요. aisparkup.com에서 더 많은 정보를 확인하실 수 있습니다.