Vortrag: Pfarrer Lukas Ohly: Künstliche Intelligenz findet keine Antwort auf die Frage nach Gott

Höfen. "Eigentlich ist es eine schöne Vorstellung im Alter. Ich lasse mir ein ›autonomes Auto‹ kommen und erledige damit meine Einkäufe ohne jedes Risiko." Diese Meinung eines Zuhörers bei einer Veranstaltung der evangelischen Erwachsenenbildung in Höfen stieß bei vielen Anwesenden durchaus auf Zustimmung. Professor Lukas Ohly aus Nidderau ist einer der wenigen Pfarrer, der sich aktiv im Dialog von Theologie und Informationstechnik beteiligt.

Den neuen Möglichkeiten stehe er dabei durchaus offen gegenüber: "Sie können ein Segen sein." So können Sprachassistenten wie "Siri" und "Alexa" in verblüffend schneller Zeit wertvolle Informationen liefern.

Sie seien wie Pflegeroboter ein Gegenüber des Menschen. Man könne sich direkt in sie verlieben, wie das Beispiel des "Tamagotchi" zeige, das 1997 in Deutschland in den Handel kam. Zur Erinnerung: Das Tamagotchi stellt ein virtuelles Küken dar, um das man sich vom Zeitpunkt des Schlüpfens an wie um ein echtes Haustier kümmern muss. Es hat Bedürfnisse wie Schlafen, Essen, Trinken, Zuneigung und entwickelt auch eine eigene Persönlichkeit.

Tut es das wirklich? Kann eine Maschine eine Seele haben und Subjekt sein? Ohly zog eine klare Grenze zwischen Mensch und Maschine. Ein Mensch kann Scham empfinden, eine Maschine speist sich aus Algorithmen und Erfahrungswerten.

Sprachassistenten antworten ausweichend

Dennoch gelinge die Kommunikation mit den "Humanoiden" leichter. Sie widersprechen nicht und tun in der Regel, was man ihnen sagt und von ihnen erwartet. Aber sie täuschen auch, so Ohly. Ein Sprachassistent würde stets ausweichend antworten. Auf die Frage "Was gibt es heute zu essen?" reagierten Systeme der Künstlichen Intelligenz bestenfalls mit der Aussage "Es gab schon länger nicht mehr Spaghetti." Siris Antwort auf die Frage "Gibt es Gott?" lautet entweder "Ich habe dich nicht verstanden. Versuch es noch einmal." Oder "Das frage ich mich auch oft." Schwierig werde es, wenn Menschen den Maschinen Entscheidungen überlassen. Eine echte Dilemma-Situation stelle sich etwa beim autonomen Fahren: Eine Mutter mit Kleinkind überquert plötzlich die Straße, das autonom fahrende Auto kann nach rechts ausweichen und einen älteren Menschen überfahren oder es rast links in eine Betonwand mit schweren Folgen für den Insassen. Ohly: "Künstliche Intelligenz darf über rein technische Prozesse entscheiden, die keine Auswirkungen auf den Menschen haben. Auch lebensrettende Maßnahmen sind wünschenswert, sofern sie die Autonomie des Menschen nicht oder nur ausnahmsweise antasten. Künstliche Intelligenz darf aber in keinem Fall Urteile über lebenswertes oder lebensunwertes Leben treffen. Der Entscheider muss ein Wesen haben und somit eine persönliche Verantwortung übernehmen."