Sam Altman gibt zu, dass KI-Modelle zwar rasante Fortschritte gemacht haben und viele Aufgaben bewältigen können, aber nun auch ernsthafte Sicherheitsrisiken mit sich bringen. Sie könnten von Hackern ausgenutzt werden.
Das Wesentliche
Die Sicherheit und Gefahrenabwehr im Zusammenhang mit künstlicher Intelligenz sind Themen, die bei OpenAI in den Fokus rücken. Dafür wird jetzt entsprechendes Personal gesucht. KI-Modelle sind inzwischen so ausgereift, dass sie kritische Sicherheitslücken in Computersystemen aufdecken können. Fortgeschrittene Hacking-Techniken, die KI nutzen, können mit minimalem menschlichen Aufwand Unbefugten den Zugriff auf Systeme ermöglichen.
Diese Entwicklung geschieht vor dem Hintergrund der Kritik, dass OpenAI die Produktentwicklung gegenüber Sicherheitsprozessen priorisiert. Der CEO von Microsoft AI hat erklärt, dass das Unternehmen seine Investitionen in KI einstellen würde, wenn diese Technologie eine Bedrohung für die Menschheit darstellen würde.
Die Ankündigungen beider CEOs folgen auf Berichte, denen zufolge KI-Labore an eine „Skalierungsgrenze“ gestoßen seien. Altman wies dies jedoch zurück. Natürlich…
Fazit
Sämtliche Aussagen sind als PR-Strategie zu werten. Zum einen ist es blauäugig zu glauben, dass diese Unternehmen ihren KI-Kurs korrigieren, bloß weil die Menschheit in Gefahr ist. Diese Unternehmen sind nur an kurzfristigem Gewinn interessiert, nicht an der Menschheit. Zum anderen benötigt man ein Narrativ, wenn den Menschen – und den Aktionären – klar wird, dass die maximale Leistungsfähigkeit der LLM-Technik längst erreicht ist. Dann schiebt man halt das Thema Sicherheit vor. Das funktioniert immer, oder?

