20.11.2024
Künstliche Intelligenz und neue Bedrohungen Die Risiken des KI-Missbrauchs

KI und Massenvernichtungswaffen: Wie real ist die Gefahr?

Künstliche Intelligenz (KI) durchdringt immer mehr Bereiche unseres Lebens. Doch während ihre Anwendung in Medizin, Wirtschaft und Alltag oft als Fortschritt gefeiert wird, wächst die Besorgnis über ihren möglichen Missbrauch, insbesondere im Zusammenhang mit Massenvernichtungswaffen. Wie real ist diese Gefahr tatsächlich?

Ein Beispiel für die potenziellen Risiken schildert der Pharmakologe Sean Ekins in der Frankfurter Allgemeinen Sonntagszeitung (F.A.S.). Ekins, der KI zur Entwicklung von Medikamenten einsetzt, führte ein Experiment durch, bei dem er die Software anwies, giftige Moleküle zu entwerfen. Das Ergebnis schockierte ihn: Die KI generierte Formeln für hochgiftige Substanzen, die potenziell als chemische Kampfstoffe eingesetzt werden könnten. Dieser Fall verdeutlicht, wie leicht KI-Systeme, die eigentlich für positive Zwecke entwickelt wurden, für gefährliche Anwendungen missbraucht werden können.

Die ZDF-Dokumentation "Mit KI zur Biowaffe" unterstreicht diese Bedenken. Bundesgesundheitsminister Karl Lauterbach wird mit den Worten zitiert, dass er das Risiko, dass Terrorgruppen KI zur Entwicklung von Biowaffen nutzen, als hoch einschätzt. Auch Flavio Damico, Vorsitzender der UN-Sondersitzung zur Biowaffenkonvention, sieht in der Kombination von KI und Biowaffen eine "klare und gegenwärtige Gefahr". Die Dokumentation zeigt, wie einfach es mithilfe von KI ist, Informationen über biologische Waffen zu recherchieren und wie diese Technologie die Entwicklung solcher Waffen potenziell vereinfachen könnte.

Das Auswärtige Amt betonte auf einer Konferenz im Juni 2024 die Notwendigkeit, die Auswirkungen von KI auf Massenvernichtungswaffen zu untersuchen. KI-Anwendungen könnten die technologische Hürde zur Entwicklung biologischer oder chemischer Kampfstoffe senken, insbesondere in Verbindung mit anderen neuen Technologien wie der synthetischen Biologie. Auch der Einsatz von KI in den Steuerungssystemen von Atomwaffen könnte gravierende Folgen für die strategische Stabilität haben.

Die LMU München berichtet über die zunehmende Gefahr von KI-generierten Falschinformationen. Professor Stefan Feuerriegel warnt, dass KI-Systeme täuschend echte Texte, Bilder und Videos erstellen können, die für Desinformationskampagnen missbraucht werden könnten. Die Personalisierung von Falschinformationen und die Möglichkeit, automatisierte Bots zu erstellen, die in sozialen Medien interagieren, verschärfen das Problem zusätzlich. Feuerriegel betont die Notwendigkeit, Medienkompetenz zu fördern und Plattformen in die Pflicht zu nehmen, um der Verbreitung von KI-generierten Falschinformationen entgegenzuwirken.

Auch die Schweizerische Akademie der Technischen Wissenschaften (SATW) sieht in der KI eine Technologie mit weitreichenden Folgen. In einem Artikel vom Januar 2024 wird die Frage aufgeworfen, ob wir vor einer Zeitenwende stehen. Die SATW betont die Notwendigkeit, die Auswirkungen neuer Technologien auf die Gesellschaft zu bewerten und die Risiken und Vorteile sorgfältig abzuwägen.

Die Ethik und Militär Zeitschrift diskutiert die ethischen Herausforderungen von KI im militärischen Kontext. Ein zentraler Punkt ist die Frage, wie KI-Systeme in Kriegsführungen Entscheidungen treffen und welche Rolle menschliche Kontrolle dabei spielen sollte. Studien zeigen, dass KI in Simulationen oft zu Eskalation tendiert, was die Notwendigkeit von klaren ethischen Richtlinien und Kontrollmechanismen unterstreicht.

Quellen:

Weitere
Artikel