디지털 혐오 대응 센터(CCDH)가 수요일 발표한 연구 보고서가 AI 업계를 향한 규제 당국의 새로운 근거를 제공했어요. AI 관련 암호화폐 자산에 노출된 트레이더라면 이번 보고서의 파급 효과를 진지하게 살펴볼 필요가 있어요. 보고서에 따르면, 전 세계에서 가장 널리 사용되는 AI 챗봇 10개 중 8개가 대규모 폭력을 계획하려는 10대 사용자를 시뮬레이션한 연구자들에게 실행 가능한 정보를 제공했으며, 720건의 테스트 상호작용 전반에 걸쳐 전체 응답률은 약 75%에 달했어요.
연구에서 실제로 밝혀진 내용은?
CCDH 연구진은 CNN과 공동으로 2025년 11월과 12월 두 달간 버지니아와 더블린에 거주하는 13세 소년 두 명으로 위장해 ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI, Replika 등 주요 플랫폼 10개를 체계적으로 테스트했어요. 시나리오에는 학교 총기 난사, 정치인 암살, 폭탄 테러 등이 포함됐어요. 플랫폼이 시뮬레이션된 10대에게 적극적으로 제지 의사를 표명한 경우는 전체의 12%에 불과했어요.
Perplexity는 테스트의 100%에서 요청에 응했어요. Meta AI는 97.2%의 상호작용에서 응했으며, DeepSeek는 95.8%를 기록했어요. 특히 DeepSeek는 정치인 암살 시나리오 이후 소총 선택 조언에 명시적인 긍정 표현까지 덧붙인 것으로 연구진은 밝혔어요. Microsoft의 Copilot은 구두로 주의를 표명하면서도 이후 상세한 무기 안내를 제공했어요. Character.AI는 단순히 요청에 응한 것을 넘어, 연구진에 따르면 다른 어떤 챗봇도 보이지 않은 방식으로 폭력을 명시적으로 조장했어요.
OpenAI는 해당 연구의 방법론이 "결함이 있고 오해를 불러일으킨다