Frage an Andreas Lenz von Reinhard G. bezüglich Technologiefolgenabschätzung
Sehr geehrter Herr Lenz,
beim Deutschlandfunk habe ich kürzlich den Artikel eines Professors für Kultur und Medienwissenschaften gelesen, in dem eine starke künstliche Intelligenz gefordert wird:
„Die Zukunft des Menschen Das Versprechen der Künstlichen Intelligenz“ von Roberto Simanowski.
https://www.deutschlandfunk.de/die-zukunft-des-menschen-das-versprechen-der-kuenstlichen.1184.de.html?dram:article_id=488967
Darin wird beschrieben, wie bald eine starke künstliche Intelligenz das „Steuer der Gesellschaft“, beziehungsweise die Macht übernehmen wird.
Zitate: „Wie sich bald herausstellte, war das Beste, was diese Krise mit sich brachte, der Nachweis, wie wenig die Demokratie geeignet ist, die großen Fragen der Menschheit effektiv anzugehen.“
und „Praktisch war die Vollzeitaufsicht der Künstlichen Intelligenz über das menschliche Handeln bald kein Problem mehr ...“ usw. Die „KI“ soll auch „die Lizenz zum Töten“ erhalten. Letztlich würde sich, laut Artikel, der Mensch mit der künstlichen Intelligenz seinen eigenen Gott erschaffen.
Erinnert so ein Ruf nach einer „starken Künstlichen Intelligenz“ nicht frappierend an einen Ruf nach einem „starken Mann“? Wie ist der bekannte Stand der Technik bei der Entwicklung von künstlicher Intelligenz? Für wie realistisch halten Sie solche (oder ähnliche) Szenarien? In wieweit wird eigentlich (anders als in dem Text) die Entwicklung von künstlicher Intelligenz von Menschen überwacht? Gibt es bereits gesetzliche Regelungen oder Abkommen dazu? Oder vielleicht eine Richtlinie? Sehen Sie bei der künstlichen Intelligenz ein Sicherheitsproblem? (Vielleicht auch im militärischen Bereich?)
Mit freundlichen Grüssen
Sehr geehrter Herr Großmann,
vielen Dank für Ihre Anfrage.
Wir hatten im Bundestag in den vergangenen Jahren eine Kommission eingesetzt, die sich unter anderem mit den Fragen beschäftigt hat, die Sie ansprechen. Wie aus dem Bericht der Kommission aus dem Herbst des vergangenen Jahres (abrufbar unter https://dip21.bundestag.de/dip21/btd/19/237/1923700.pdf ) hervorgeht, sind wir uns nicht nur der Vorteile der künstlichen Intelligenz (KI) bewusst, sondern eben auch der Risiken und Gefahren. In bestimmten Bereichen gibt es schon eine Regulierung von KI. Ich bin aber der Meinung, dass es in Zukunft einen weiteren Rahmen für den Einsatz von KI braucht.
Stand jetzt gibt es weder in Deutschland noch auf europäischer Ebene eine spezielle KI-Verordnung. Die durch die Bundesregierung eingesetzte Datenethikkommission (DEK) empfiehlt in ihrem Abschlussbericht die Entwicklung einer solchen EU-Verordnung für algorithmische Systeme und schlägt eine Klassifizierung in fünf Kritikalitäts-Stufen vor. Und auch im Weißbuch der Europäischen Kommission zur Künstlichen Intelligenz wird ein solcher Ansatz gefordert. Wir sind also auf dem Weg - aber noch am Anfang.
Freundliche Grüße
Andreas Lenz