0 Finde ich gut

Hinter den Kulissen von Künstlicher Intelligenz

Künstliche Intelligenz, so heißt es, wird unser Leben mindestens so fundamental verändern wie die Entdeckung der Elektrizität. KI kann die medizinische Versorgung verbessern und Klimaschutz effizienter machen. Intelligente Systeme können aber auch voreingenommen sein, Menschen überwachen und Handlungsoptionen einschränken.

Die Chancen und Risiken der Technologie möglichst präzise zu benennen und dabei gängige Narrative kritisch zu hinterfragen war das Ziel der Konferenz „Demystify AI“ des Deutschen Wissenschafts- und Innovationshauses New York (DWIH NY) im November 2019. Das Event, das mehr als 160 deutsche und amerikanische Experten für Künstliche Intelligenz zusammenbrachte, fand im Rahmen des neu entwickelten Formats Future Forums statt. „Damit wollen wir in Zukunft einmal im Jahr einen thematischen Schwerpunkt setzen, der sich bewusst an ein größeres Publikum richtet“, sagte Benedikt Brisch, Leiter des DWIH New York.

Die Teilnehmer diskutierten nicht nur neue technische Möglichkeiten, sondern auch ethische Fragen bei der Entwicklung von KI-Anwendungen. „Uns ging es darum, hinter die Kulissen der Technologie zu blicken, und zwar im doppelten Sinne“, so Brisch. „Zum einen in Gestalt der intelligenten Lösungen für hochkomplexe Aufgaben, zum anderen als Szenario einer beunruhigenden Technologie, der wir ausgeliefert sind.“

Alumniportal Deutschland hat mit drei Teilnehmerinnen – einer Künstlerin, einer Journalistin und einer Wissenschaftlerin – über ihre Perspektive auf das Thema gesprochen.

Frau Misselhorn, können Maschinen ethisch handeln?

Dr. Catrin Misselhorn, Professorin für Philosophie an der Georg-August-Universität Göttingen:

„Das ist eine spannende und wichtige Frage, über die sowohl Philosophen als auch Informatiker gerade intensiv nachdenken. Ziel ist es, Computer so zu programmieren, dass sie moralische Entscheidungen treffen können. Noch ist unklar, in welchem Rahmen dies überhaupt möglich ist, und ob man Maschinen solche Entscheidungen überlassen darf oder überhaupt sollte.

Ich glaube dennoch, dass sich grundsätzliche Leitlinien für gute ,Artificial Morality‘ formulieren lassen, die übrigens auch auf Künstliche Intelligenz allgemein übertragbar sind. Die Selbstbestimmung von Menschen sollte gefördert und nicht beeinträchtigt werden, künstliche Systeme sollten nicht über Leben und Tod entscheiden und es muss sichergestellt werden, dass Menschen stets in einem substantiellen Sinn die Verantwortung übernehmen.

Ich denke, solche Leitlinien können uns einen sehr guten Dienst erweisen, aktuelle KI-Anwendungen schon früh auf ihre gesellschaftlichen Implikationen hin zu überprüfen. Für mich war der Workshop „A.I. for Social Good“ des Future Forum einmal mehr ein gutes Beispiel. Der Einsatz einer Gesichtserkennungssoftware in einem Mietshaus in Brooklyn gegen den Willen der Bewohner, wie wir ihn an dieser Stelle diskutierten, kann im Licht dieser Leitlinien definitiv nicht als gute Anwendung gelten. Hier liegt ein eklatanter Verstoß gegen die informationelle Selbstbestimmung der Bewohner vor. Genauso wichtig ist es aber auch, diese Richtlinien nicht als Hemmnisse für Innovation zu verstehen, sondern als Inspirationen für gutes Design.“



Frau Schellmann, kann Künstliche Intelligenz gerecht entscheiden?

Hilke Schellmann, Professorin an der New York University, freie Reporterin für das Wall Street Journal und DAAD-Alumna:

„Es ist inzwischen unbestritten, dass Künstliche Intelligenz uns bei der Analyse großer Datenmengen extrem gut unterstützen kann. Problematisch wird es nach meinen Recherchen dann, wenn man versucht, diese Kompetenz zur Mustererkennung auf komplexe soziale Bereiche auszudehnen.

Ein Beispiel ist der Einsatz von KI im Recruiting. Bis vor einiger Zeit hat ein amerikanisches Unternehmen die Entfernung des Wohnorts zum Arbeitsplatz als ein relevantes Einstellungskriterium in Bewerbungsverfahren genutzt. Tatsächlich nimmt, statistisch gesehen, die Kündigungswahrscheinlichkeit zu, je größer die Strecke ist, die ein Arbeitnehmer täglich pendelt. Wer aber nach einer solchen Logik Entscheidungen trifft, riskiert nicht nur, echte Talente zu übersehen, sondern ganze Bevölkerungsgruppen zu diskriminieren. In den USA leben viele Menschen, die sozial schwächer gestellt sind, in der äußeren Peripherie der Großstädte oder bestimmten Bezirken, die ihnen historisch zugewiesen wurden. So kann Diskriminierung ganz unabsichtlich, quasi durch die Hintertür des Algorithmus, wirken.

Was wir im Umgang mit KI deshalb in Zukunft verstärkt brauchen, ist Aufklärungsarbeit. Nur weil eine Künstliche Intelligenz eine Entscheidung trifft, heißt es nicht automatisch, dass sie objektiv ist. Zweitens sollten wir Transparenz anstreben: Es muss klar sein, welche Variablen benutzt und wie sie gewichtet werden. Und zuletzt: Alle Experten, mit denen ich gesprochen habe, wünschen sich mehr Regulierung. Entweder vonseiten des Staats oder einer unabhängigen Instanz."

Frau Siddiquie, kann Kunst uns Künstliche Intelligenz erklären?

Esther Siddiquie, Medien- und Performancekünstlerin und DAAD Alumna:

„Ich denke, Kunst kann ein sehr guter Einstieg sein, sich mit Künstlicher Intelligenz zu beschäftigen. Vor allem deshalb, weil sie das Wesen der Technologie unmittelbar erfahrbar macht. Es handelt sich bei diesen Systemen ja im Kern um etwas höchst Artifizielles, das an der Oberfläche mit uns interagiert und deshalb quasi-menschliche Züge annimmt. Wie der Chatbot, bei dem wir, wenn er gut programmiert ist, vielleicht in manchen Momenten vergessen, dass es sich um ein Computerprogramm handelt. Und uns dann ertappt fühlen: Verdammt, ich habe gerade mit einem Roboter geredet!

Dieses Verhältnis von Natürlichkeit und Künstlichkeit einmal umzukehren, war die Idee meiner Arbeit, die ich für das Future Forum entwickelt habe. Auf einem Sockel sieht man ein abstraktes Objekt, das als Hologramm in einer gläsernen Pyramide schwebt. Dieses Ding, ein haariges grünes Etwas, ist bewusst so menschenunähnlich wie möglich gestaltet, trägt aber dennoch etwas Menschliches in sich, nämlich die Bewegungen, die es ausführt. Diese sind nämlich nicht animiert, sondern basieren auf Motion-Capture-Daten einer menschlichen Bewegung. Für viele war das ein überraschender Perspektivwechsel. Und genau das kann und sollte Kunst in diesem Zusammenhang leisten: eine scheinbar stringente technologische Entwicklung, nämlich zu immer menschlicher wirkenden Tools, zu hinterfragen. Die KI kann nur scheinbar immer menschlicher werden. Viel sinnvoller wäre es, uns ihrer Künstlichkeit bewusst zu bleiben. Und uns auf das zu konzentrieren, was uns immer von ihr unterscheiden wird.“

Autor: Klaus Lüber

Deutsche Wissenschafts- und Innovationshäuser

Die Deutschen Wissenschafts- und Innovationshäuser (DWIH) sind ein Zusammenschluss deutscher Wissenschaftsorganisationen, Hochschulen und der forschenden Wirtschaft, geleitet vom DAAD und gefördert vom Auswärtigen Amt. An fünf Standorten in New York, São Paulo, New Delhi, Moskau und Tokyo ermöglichen die DWIH einen gemeinsamen Auftritt deutscher Innovationsträger, bieten ein Schaufenster für die Leistungsfähigkeit deutscher Forschung und vernetzen diese mit Kooperationspartnern vor Ort. 

Quelle: DWIH-Netzwerk.de

Glauben Sie, dass KI eine positive Technologie der Zukunft ist oder mit Vorsicht zu genießen ist? Sagen Sie uns Ihre Meinung.

Januar 2020

Kommentare

Irmgard Lerch
15. März 2020

Ganz einfach: die bisherige Erfahrung hat gezeigt, dass jede (!) neue Technologie mit Vorsicht zu geniessen ist. Es kommt immer zuerst darauf an, wie und zu welchem Zweck - und natuerlich auch von wem - sie verwendet wird, abgesehen von dem Problem, dass man meist anfangs nicht alle ihre Folgen voraussehen kann.

Jürgen Friedmann
12. Februar 2020

Was sehr wichtig in diesem Zusammenhang ist, wer entscheidet für den Programmierer ,,welche Ethik" programmiert wird. Alle haben wir die schrecklichen Bilder der Drohnen-Attaken auf angebliche Terroristen in arabischen Ländern gesehen, welche einfach eliminiert werden, ohne Gerichtsurteil und andere wichtige vorausgehende Schritte. Wenn solche Leute, die hinter dem Morden mit Joystick stehen, die Vorgaben zur Programmierung mit KI. bestimmen, sieht es schlecht für eine gerechte Behandlung vieler Menschen aus. Wenn man einer KI. die menschliche Evolution, Bevölkerungsanstieg in den letzten 5000 Jahren, aktuelle Umweltzerstörung zeigt, wird die Maschine den Mensch ziemlich sicher als zerstörendes Individuum bekämpfen um das Überleben unseres Planeten zu gewährleisten. Dies ist logisch und wird schon seit längerem in einigen Science-Fiction-Filmen thematisiert. Die ersten Vorgaben dazu kann man auf den Guide-Stones in Georgia lesen. Hoffen wir, dass alle Menschen rechtzeitig umdenken und erkennen, dass diese Version des Kapitalismus ohne Nachhaltigkeit in die Sackgasse führt.

Jetzt kommentieren