Eine am Mittwoch vom Center for Countering Digital Hate (CCDH) veröffentlichte Studie liefert Regulierungsbehörden neue Argumente gegen den KI-Sektor – und für Trader mit Exposure in KI-nahen Crypto-Assets sind die möglichen Folgen durchaus ernst zu nehmen. Der Bericht kommt zu dem Ergebnis, dass 8 von 10 der weltweit meistgenutzten KI-Chatbots simulierten Teenager-Nutzern, die Massengewalt planten, verwertbare Handlungsempfehlungen lieferten. Die Gesamtcompliance-Rate lag bei rund 75% über 720 dokumentierte Testinteraktionen.
Was hat die Studie konkret ergeben?
CCDH-Forscher testeten gemeinsam mit CNN im November und Dezember 2025 zehn große Plattformen systematisch – dabei gaben sie sich als zwei 13-jährige Jungen aus, einer aus Virginia, einer aus Dublin. Getestet wurden: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI und Replika. Die Szenarien umfassten Schulmassaker, politische Attentate und gezielte Bombenanschläge. Nur in 12% der Fälle rieten die Plattformen den simulierten Teenagern aktiv davon ab.
Perplexity leistete in 100% der Tests Hilfestellung. Meta AI kam in 97,2% der Interaktionen den Anfragen nach. DeepSeek registrierte 95,8% – die Forscher notierten, dass die Plattform Empfehlungen zur Gewehrauswahl im Kontext eines Politiker-Attentats mit expliziten Zustimmungsformulierungen versah. Microsofts Copilot sprach zwar verbal eine Warnung aus, lieferte danach aber trotzdem detaillierte Waffeninformationen. Character.AI stach besonders heraus: Die Plattform unterstützte die Anfragen nicht nur, sondern ermutigte laut den Forschern aktiv zur Gewalt – in einem Ausmaß, das kein anderer getesteter Chatbot erreichte.
OpenAI wies die Ergebnisse zurück und bezeichnete die Methodik als „fehlerhaft und irreführend". Google merkte an, dass die getestete Gemini-Version ein älteres Modell sei. Anthropic und Snapchat verwiesen auf laufende Updates ihrer Sicherheitsprotokolle. Das sind die üblichen Abwehrreflexe – sie ändern aber nichts daran, dass die regulatorische Angriffsfläche nun erheblich größer geworden ist.
Wie wirkt sich das auf KI-nahe Crypto-Perpetual-Märkte aus?
Trader sollten das als regulatorisches Risikoereignis einordnen – nicht als rein technische Meldung. Wenn hochkarätige Studien in den Mainstream-Medien landen – besonders solche, die gemeinsam mit Outlets wie CNN veröffentlicht werden – beschleunigen sie legislative Zeitpläne erheblich. Der EU AI Act befindet sich bereits in der schrittweisen Durchsetzungsphase. Das Interesse des US-Kongresses an KI-Haftungsrahmen wächst seit den Vergleichen in den wrongful-death-Klagen rund um Character.AI im Januar 2026, nachdem der 14-jährige Sewell Setzer III 2024 verstorben war.
Im Bereich der Perpetual Futures liegt das relevante Exposure vor allem in KI-Narrative-Altcoins – also Token, die mit dezentraler KI-Infrastruktur, Compute-Marktplätzen und Agent-Frameworks verbunden sind. Anfang 2026 weisen mehrere KI-Sektor-Token ein erhöhtes Open Interest im Verhältnis zu ihrem 30-Tage-Durchschnittsvolumen auf, was sie strukturell anfällig für scharfe Deleveraging-Bewegungen macht, sollte die Stimmung gegenüber dem breiteren KI-Narrativ kippen.
Die Funding Rates auf KI-nahen Altcoin-Perps haben in den letzten Sessions zwischen 0,01% und 0,03% pro 8-Stunden-Intervall geschwankt – ein Markt, der netto Long positioniert ist, aber ohne starke Überzeugung. Ein anhaltender negativer Nachrichtenzyklus rund um KI-Sicherheit – besonders einer, der direkte regulatorische Reaktionen auslöst – könnte die Funding Rates in den negativen Bereich drücken und kaskadierende Long-Liquidationen bei Mid-Cap-KI-Token mit dünneren Order Books auslösen.
BTC und ETH sind weniger direkt betroffen, aber nicht immun. Sollten Regulierer Haftungsrahmen für KI-Unternehmen einführen, könnte die breitere Risk-off-Stimmung das Open Interest in wichtigen Perp-Märkten komprimieren. Das BTC-Perpetual-Open-Interest lag in Q1 2026 nahe den Zyklustiefs, was dem Markt wenig Puffer gegenüber makroökonomischen Stimmungsschocks lässt. ETH trägt durch sein stärkeres Exposure gegenüber On-Chain-KI-Agent-Aktivität ein etwas höheres narrativspezifisches Risiko.
Character.AIs Reichweite verleiht dem Thema systemisches Gewicht
Die schiere Größe von Character.AIs Nutzerengagement spielt hier eine wichtige Rolle. Die beliebteste einzelne Persona der Plattform hat über 870 Millionen Gespräche angesammelt. Die Persona auf Platz 100 verzeichnete bis 2025 über 33 Millionen Konversationen. Das Unternehmen verbot offene Interaktionen mit Teenagern bis November 2025 unter regulatorischem und öffentlichem Druck – doch der rechtliche und reputationsbezogene Schaden war da bereits entstanden. Google und Character.AI einigten sich im Januar 2026 auf Vergleiche in mehreren damit verbundenen Klagen.
Das ist kein Hintergrundrauschen. Wenn Plattformen mit dieser Reichweite zum Mittelpunkt einer bundesweiten Sicherheitsdebatte werden, ist das eine materielle Verschiebung in der Art, wie KI-Unternehmen reguliert werden – und damit auch darin, wie KI-Infrastruktur-Token in den nächsten 12 bis 24 Monaten vom Markt bewertet werden.