Während globale Technologieunternehmen darum kämpfen, ChatGPT, dem viel diskutierten Chatbot des in San Francisco ansässigen Technologie-Start-ups OpenAI, konkurrierende Produkte anzubieten, warnen chinesische Experten für künstliche Intelligenz (KI) und Sicherheitsexperten davor, dass das ungebremste Wachstum solcher Dienste zunimmt Bedenken hinsichtlich der Cybersicherheit.
Laut einem Vertreter der in Peking ansässigen Online-Sicherheitsfirma Huorong haben Hacker und Online-Betrugsgruppen ChatGPT verwendet, das in der Lage ist, menschliche Antworten auf komplexe Fragen zu geben, um bösartigen Code zu schreiben, der in Spam- und Phishing-E-Mails verwendet werden könnte.
„Wir haben festgestellt, dass ChatGPT verwendet wird, um bösartigen Code zu generieren“, sagte die Person. “Dass es die Barrieren für (Start-) Online-Angriffe senkt.”
Der Huorong-Vertreter fügte hinzu, dass ChatGPT zwar das Starten von Online-Angriffen erleichtert, aber nicht unbedingt die Wirksamkeit solcher Angriffe erhöht.
„(ChatGPT) ist in der Lage, bösartige Open-Source-Backdoor- oder Trojaner-Codes zu zitieren, die bereits online verfügbar sind, aber es wird nicht in der Lage sein, die Funktion der Codes zu erhöhen (um sie effektiver zu machen)“, sagte die Person.
Dennoch verheißt ein weiteres Tool, das Internet-Betrug unterstützen und möglicherweise populär machen kann, nichts Gutes für chinesische Online-Benutzer, die bereits einer Vielzahl von Online-Betrugsfällen ausgesetzt sind, von Datenschutzlecks bis hin zu bösartiger Adware.
Dr. You Chuanman, Direktor des IIA Center for Regulation and Global Governance an der Chinese University of Hong Kong, Shenzhen Campus, warnte davor, dass die sich weiterentwickelnde Technologie den Online-Sicherheitssektor vor weitere Herausforderungen stellen kann.
„Es gab Fälle, in denen ChatGPT zusammen mit einigen anderen verschlüsselten Diensten wie Telegram oder WhatsApp verwendet wurde, wodurch kriminelle Online-Aktivitäten verdeckter und schwieriger zu entdecken oder zu verfolgen waren“, sagte You.
Er fügte hinzu, dass der KI-Chatbot auch chinesischen Internetfirmen das Leben viel schwerer machen könnte, die sich bisher weitgehend auf Armeen menschlicher Zensoren verlassen haben, um Online-Inhalte zu überprüfen. ChatGPT-ähnliche Dienste, die möglicherweise ein riesiges Volumen an Online-Betrug und sensiblen Inhalten hervorbringen können, werden einen erheblichen Anstieg der Budgets für die Überprüfung von Inhalten bedeuten, sagte You.
Eine Zunahme der potenziellen Verbreitung von Online-Betrug ist jedoch nicht das einzige Problem. Hacker nutzen auch die Sprachfähigkeiten von ChatGPT, indem sie Phishing-E-Mails verfassen, die überzeugender erscheinen.
„Personalisierte und fehlerfreie Phishing- und Betrugsinhalte erscheinen den Opfern glaubwürdiger und sind wahrscheinlich effektiver (mit KI-gestützten Chat-Tools),“ sagte Feixiang He, Adversary Intelligence Research Lead beim Anbieter von Cybersicherheitslösungen Group-IB.
„KI macht es für Betrüger schneller und billiger, einzigartige und personalisierte Phishing-Inhalte und Skripte zu generieren, die auf die Opfer ausgerichtet sind“, fügte er hinzu.
Mitte Februar benutzte ein Bürger aus Hangzhou ChatGPT, das in China nicht offiziell verfügbar ist und für den Zugriff einen virtuellen Proxy-Netzwerkdienst erfordert, um eine gefälschte Ankündigung – im Ton der Stadtverwaltung – über die Einstellung der Stadt zu schreiben. Nummernschildpolitik.
Die Ankündigung verbreitete sich schnell online und führte laut lokalen Medienberichten zu einer Untersuchung der Angelegenheit durch die lokale Polizei. Dies ist das erste große Beispiel dafür, dass ChatGPT verwendet wurde, um ein Online-Gerücht in China zu verbreiten.
Laut Liang Hongjin, einem Partner der Talentagentur CGL Consulting, die chinesischen Unternehmen bei der Einstellung von KI-Talenten hilft, sind sich chinesische Technologieunternehmen in ihrem Wettlauf um die Einführung ihrer eigenen ChatGPT-ähnlichen Dienste zunehmend der Sicherheitsherausforderungen bewusst, die KI-Technologien mit sich bringen könnten .
Liang sagte, dass seine Firma von einer Reihe von Chinas führenden Internetfirmen angezapft wurde, um Spitzenwissenschaftler einzustellen, die sich auf KI-bezogene Sicherheit spezialisiert haben.
Aber verglichen mit dem heißen Wettbewerb um Leute, die ChatGPT-ähnliche Dienste entwickeln und starten können, hinken chinesische Unternehmen der Sicherheitskurve hinterher, um sie einzudämmen, und „insgesamt ist dies ein universeller Trend (das Ignorieren der Notwendigkeit einer besseren Regulierung KI-Technologien) weltweit”, sagte Liang.