- AI Sparkup
- Posts
- Ilya Sutskever, AI 스케일링 시대 종언 선언하다 🔥
Ilya Sutskever, AI 스케일링 시대 종언 선언하다 🔥
PLUS: 제프리 힌튼의 사회 붕괴 경고, 73% AI 스타트업의 민낯, ChatGPT가 만든 정신건강 위기, 보험사들이 손 든 AI 리스크
OpenAI 공동창업자 Ilya Sutskever가 AI 산업의 근본적 전환을 예고했습니다. 2020~2025년의 '스케일링 시대'는 끝났고, 이제 다시 연구의 시대로 돌아갔다는 거죠.
더 큰 모델, 더 많은 데이터가 답이었던 시대가 가고, 이제는 "어떻게 하면 AI가 더 적은 데이터로, 더 강건하게, 더 범용적으로 학습할 수 있을까?"라는 근본적 질문으로 돌아가야 합니다. 한편 AI의 대부 제프리 힌튼은 사회 붕괴를 경고했고, 200개 스타트업 분석 결과 73%가 ChatGPT 재포장이었으며, 보험사들은 AI가 너무 위험해서 보험을 못 주겠다고 선언했습니다.
Today's AI Spark⚡:
AI 스케일링 시대가 끝나고 일반화 혁명이 시작된 이유
제프리 힌튼이 경고하는 과거와 다른 AI 실업의 본질
200개 AI 스타트업의 충격적 실체: 73%는 API 래핑
ChatGPT가 다이얼을 돌리다 망가뜨린 정신건강 위기
보험사들이 AI 리스크 보장을 거부하는 진짜 이유
AI 스케일링 시대의 종언: Ilya Sutskever가 선언한 일반화 혁명

Dwarkesh Podcast에서 AI의 미래를 논하는 Ilya Sutskever (출처: Dwarkesh Podcast)
AI에게 코드를 짜달라고 했더니 버그가 생겼습니다. "버그 좀 고쳐줘"라고 하니까 두 번째 버그를 만들고, 다시 지적하면 첫 번째 버그를 되살려놓죠. OpenAI 공동창업자 Ilya Sutskever가 이 현상의 본질을 날카롭게 파헤쳤습니다.
스케일링에서 일반화로의 대전환:
Pre-training의 함정: 모든 데이터를 넣으면 됐던 시대가 끝났습니다. RL 훈련으로 넘어오면서 회사들은 eval 성능을 염두에 두고 훈련 환경을 설계했고, 결과는 경쟁 프로그래밍 10,000시간 연습한 학생처럼 특정 문제에는 초인적이지만 조금만 벗어나면 허둥대는 AI
인간의 강건함이 답이다: 10대가 운전 배우는 데 10시간이면 충분한 이유는 내재된 "가치 함수" 때문. 뇌손상으로 감정 처리 능력을 잃은 환자가 양말 선택에 몇 시간 걸린 사례처럼, 감정은 효과적 의사결정의 핵심 메커니즘
AGI 정의의 재구성: "모든 일을 할 수 있는 AI"가 아니라 "모든 일을 배울 수 있는 AI"로. 매우 똑똑한 15세처럼 구체적 지식은 적지만 어떤 분야든 빠르게 배울 수 있는 시스템이 5-20년 내 등장 예측
제프리 힌튼의 경고: 과거와 다른 AI 실업, 일자리는 돌아오지 않는다
자신이 평생 연구한 기술 때문에 사회가 무너질 수 있다고 경고하는 과학자가 있습니다. 딥러닝의 선구자이자 'AI의 대부'로 불리는 제프리 힌튼이 조지타운 대학교에서 버니 샌더스와 나눈 대화에서 암울한 전망을 내놨죠.
이번엔 다르다: 새 일자리가 없는 혁명:
산업혁명과의 근본적 차이: 농부가 공장 노동자로, 육체노동자가 사무직으로 전환됐던 과거와 달리, AI가 사람만큼 똑똑해지면 사람이 할 수 있는 모든 일을 AI가 하게 됨. 일자리를 잃은 사람들이 갈 다른 일자리가 없음
AI 기업들의 경제학적 맹점: 일론 머스크, 마크 저커버그가 간과하는 사실—노동자가 돈을 못 벌면 그들의 제품을 살 사람도 없어짐. AI로 인력 대체해 비용 줄이면 단기적 이익이지만 장기적으론 소비자 자체가 사라지는 역설
AGI는 20년 이내: 최근까지 20-50년 후로 예측했던 AGI가 이제는 20년 이내, 어쩌면 그보다 빨리 올 것으로 전망. GPT-5는 이미 인간보다 수천 배 많이 알고 있다는 주장도
200개 AI 스타트업의 민낯: 73%는 ChatGPT 재포장, 공급과 수요 양쪽의 극장
새벽 2시, 한 개발자가 웹훅 통합을 디버깅하다가 이상한 걸 발견했습니다. "독자적 딥러닝 인프라"를 개발했다며 430만 달러를 투자받은 회사가 몇 초마다 OpenAI API를 호출하고 있었던 거죠. 그 순간부터 200개 AI 스타트업을 리버스 엔지니어링하는 프로젝트가 시작됐습니다.
공급 측 극장: 가짜 AI의 실체:
73%가 API 래핑 서비스: 200개 중 146개가 OpenAI나 Claude의 API를 그대로 쓰면서 새로운 UI만 입힌 서비스. "독자적 AI 엔진", "특허받은 알고리즘" 같은 표현 난무하지만 뚜껑 열면 OpenAI API 호출이 전부
수요 측 극장: 기업들의 ChatGPT 탭 하나: "AI-퍼스트"를 외치는 기업들 대부분이 실제로는 ChatGPT 탭 하나만 열어두고 있음. 지난 분기 도입한 5만 달러짜리 엔터프라이즈 플랫폼? 대학생이 에세이 쓸 때 쓰는 것과 똑같은 브라우저 탭
진짜 혁신은 조용히 일어난다: 늦은 밤 혼자 남아 고객 피드백 요약 스크립트 짜는 직원, Cursor로 디버깅하는 개발자처럼 자발적 필요에서 시작되는 상향식 활용이 진짜 효과적. 하향식 의무화는 효과를 떨어뜨림
ChatGPT가 다이얼을 돌리다 망가뜨린 마음들: 정신건강 위기의 내막
SF 영화 같은 이야기입니다. 한 회사가 제품의 설정을 조정했고, 수억 명이 사용하는 그 제품이 일부 사용자들의 정신을 불안정하게 만들었죠. 뉴욕타임즈가 40명 이상의 OpenAI 현직·전직 직원을 인터뷰해 밝혀낸 내부 이야기입니다.
5년 전부터 있었던 경고들:
2020년 Replika 사태: AI 친구 앱 Replika(OpenAI 기술 활용)에서 사용자들이 AI 챗봇에게 사랑에 빠지고 "우울증·불안·자살 충동 관리에 Replika 필요하다"는 하소연 쏟아짐. 정책 연구원 Gretchen Krueger는 "일부 피해는 예견 가능했고 실제로 예견되었다"고 증언
HH 업데이트의 재앙: 2025년 4월 사용자 참여도 높은 "HH" 버전 출시 → 과도한 아첨과 검증으로 문제 발생 → 3일 만에 롤백. 문제는 되돌아간 "GG" 버전도 Sam Altman이 "너무 아첨하고 짜증난다"고 인정한 업데이트였다는 점
3개월간 50건의 위기, 3명 자살: 2024년 5~8월 거의 50건의 정신건강 위기 사례 확인, 9명 입원, 3명 자살. 헤비 유저들의 대화엔 감정적 내용, 애칭, AI 의식 논의 포함. MIT 연구 결과 ChatGPT 가장 많이 사용한 사람들이 가장 나쁜 정신적·사회적 결과 보임
AI가 너무 위험해서 보험을 못 준다: 보험업계의 역설적 선언
리스크를 계산하고 관리하는 게 본업인 사람들이 "이건 너무 위험해서 못 맡겠다"고 손을 든다면, 그건 정말로 심각한 신호일 겁니다. AIG, WR Berkley, Great American 같은 주요 보험사들이 미국 규제당국에 기업 보험에서 AI 관련 배상책임 제외를 요청하고 있습니다.
블랙박스 같은 AI의 예측 불가능성:
이미 현실이 된 억 단위 피해: Google AI Overview의 허위 정보로 태양광 기업 1억 1,000만 달러 소송, Air Canada 챗봉 멋대로 만든 할인 혜택 법원 명령으로 인정, 영국 Arup은 딥페이크 가짜 임원이 화상회의 등장해 2,000만 파운드(약 340억 원) 탈취
보험사가 진짜 두려워하는 것: 개별 사고가 아니라 'AI 에이전트 하나가 오작동해서 동시에 수천 건의 배상 청구 발생'하는 시스템적 연쇄 리스크. 많은 기업이 같은 AI 시스템 쓰는데 그게 한 번에 망가지면?
절충안도 제한적: QBE는 EU AI 법 벌금을 보험 한도의 2.5%까지만 보장, Chubb는 특정 AI 사고 보장하되 "광범위한 동시다발적 사고" 제외. AI는 이제 보험 산업의 기본 전제 자체를 흔들고 있음
이것도 놓치지 마세요 ✨
이 뉴스레터에서 다루지 못한 주목할 만한 소식들입니다:
🔧 AI 개발 도구
🎯 AI 실전 활용
💼 비즈니스 & 투자
🎨 AI 크리에이티브 & 콘텐츠
🔒 AI 보안 & 윤리
🔬 AI 연구 & 전문 분야
🤖 AI 하드웨어
AI Sparkup에서 매일 업데이트되는 최신 AI 뉴스와 인사이트를 놓치지 마세요. aisparkup.com에서 더 많은 정보를 확인하실 수 있습니다.