- AI Sparkup
- Posts
- 중국 AI 3사, Claude를 1,600만 번 베꼈다 — Anthropic의 정면 고발 🔥
중국 AI 3사, Claude를 1,600만 번 베꼈다 — Anthropic의 정면 고발 🔥
PLUS: ChatGPT 광고 시대 개막의 구조적 의미, 코드 비용이 0이 된 시대의 개발자 생존법, AI 안전장치가 파르시어 앞에서 무너지는 이유, Google AI 검색의 숨겨진 문장 선별 알고리즘
Anthropic이 DeepSeek, Moonshot AI, MiniMax 세 곳을 정식 고발했습니다. 24,000개 가짜 계정으로 Claude와 1,600만 번 대화를 나눈 뒤 그 데이터로 자사 모델을 훈련시켰다는 것인데요. 업계는 "내가 하면 훈련, 남이 하면 증류냐"며 위선 논란으로 들끓고 있습니다.
Today's AI Spark⚡:
중국 AI 3사가 1,600만 번 Claude를 베낀 방법, Anthropic이 직접 까발렸다

사진 출처: Futurism
Anthropic이 DeepSeek(15만 건), Moonshot AI(340만 건), MiniMax(1,300만 건)를 고발했습니다. 가짜 계정으로 Claude의 추론 데이터를 대량 추출해 자사 모델 훈련에 활용했다는 것인데요. Anthropic은 이를 단순 IP 침해가 아닌 AI 안전장치 우회와 연결되는 국가 안보 문제로 격상시켰습니다. 세 회사 모두 아직 공식 반응은 없는 상태입니다.
"광고 안 한다"는 약속, OpenAI는 3주 만에 뒤집었다
1월 16일 발표, 2월 9일 실제 적용 — ChatGPT에 광고가 붙었습니다. Juno Labs 공동창업자 Adam Juhasz는 이를 구조적 문제로 짚습니다. "Policy is a promise. Architecture is a guarantee." 정책은 바뀌지만, 온디바이스 구조는 물리적으로 데이터를 배신할 수 없습니다. 항상 켜진 AI가 광고 회사의 손에 있을 때 무슨 일이 벌어지는지, Amazon이 이미 답을 보여줬습니다.
코드가 공짜가 됐는데, 왜 개발자는 더 바빠질까
Datasette 창시자 Simon Willison의 한마디: "코드 작성은 이제 거의 공짜가 됐다. 그게 문제다." 에이전트가 코드를 쏟아낼수록 그 품질을 감독하는 사람의 역할이 오히려 커지는 역설을 짚습니다. 코드 작성이 싸졌던 시대의 판단 기준을 지금도 그대로 쓰고 있다면, 어떻게 바꿔야 할지를 이야기합니다.
AI 안전장치를 검사하는 도구마저 같은 편향을 가졌다
Mozilla Foundation의 Roya Pakzad가 655개 난민·망명 시나리오로 주요 LLM을 다국어 평가했습니다. 영어 응답 실용성 3.86점 대 비영어 2.92점 — 같은 모델이 언어에 따라 다른 안전 기준을 적용한 겁니다. 더 충격적인 건 가드레일 평가 도구마저 영어·파르시어 간 36~53% 점수 차이를 냈다는 것. "소금이 상하면 어떻게 하나"는 속담이 딱 맞는 상황입니다.
내 글의 어떤 문장이 Google AI 답변에 실리는지, 드디어 밝혀졌다
SEO 에이전시 DEJAN의 Dan Petrovic이 Google API 원시 데이터를 분석해 Gemini의 문장 선별 메커니즘을 처음으로 실증했습니다. 핵심 발견: 도입부 문장은 쿼리 관련성이 낮아도 거의 전부 추출됩니다. AI 검색 시대에 콘텐츠를 어떻게 써야 하는지, 구체적인 데이터로 확인할 수 있습니다.
이것도 놓치지 마세요 ✨
이번 뉴스레터에서 다루지 못한 글들입니다. 관심 가는 제목이 있다면 링크를 눌러 본문을 확인해 보세요!
🔧 AI 도구 & 기술
🛡️ AI 보안 & 신뢰
💼 AI 개발자 & 생산성
🌐 AI 생태계 & 오픈소스
AI Sparkup에서 매일 업데이트되는 최신 AI 뉴스와 인사이트를 놓치지 마세요. aisparkup.com에서 더 많은 정보를 확인하실 수 있습니다.