DeepSeek hat die Tech-Branche aus mehreren Gründen im Sturm erobert: Zum einen hat das Unternehmen ein Open Source Large Language Model (LLM) entwickelt, das Berichten zufolge Closed-Source-Modellen wie GPT-4 und o1 von OpenAI überlegen oder zumindest ebenbürtig ist. Zum anderen scheint es das mit weniger Rechenleistung bewerkstelligt zu haben, da die Beschaffung leistungsstärkerer Hardware durch Exportkontrollen eingeschränkt ist.
Das Release von DeepSeekv3 und der leistungsstärkeren Version DeepSeek-R1 als Open Source macht LLMs praktisch jedem auf der Welt zugänglich. Das Problem bei der Sache: Im Gegensatz zu Closed-Source-Modellen, die innerhalb gewisser Leitplanken operieren, sind Open Source LLMs anfälliger für Missbrauch. Wir wissen noch nicht, wie schnell Cyberkriminelle die DeepSeek-Modelle für ihre Zwecke instrumentalisieren. Doch wenn frühere Entwicklungen ein Indikator sind, hat der Wettlauf längst begonnen.
Für Cybercrime konzipierte LLMs optimieren in der Regel den Text-Output, den Scammer und Cyberkriminelle für Finanzbetrug oder die Verbreitung von Malware nutzen. Wir wissen, dass Cybercrime-Tools wie WormGPT, WolfGPT, FraudGPT, EvilGPT und das neu entdeckte GhostGPT in Untergrund-Foren gehandelt wurden. Für eine Prognose ist es noch sehr früh, aber es würde mich nicht überraschen, wenn die Entwicklung von DeepSeek-Wrappern – sprich Tools, die auf DeepSeek basieren und für Cybercrime konzipiert sind – oder die zweckgerichtete Modifizierung bestehender Modelle durch Cyberkriminelle rasant an Fahrt aufnehmen würde.
SATNAM NARANG, Tenable