Politisch korrekte Künstliche Intelligenz

Künstliche Intelligenz steckt noch in den Kinderschuhen, aber die ersten Tests zu lernenden Maschinen wurden bereits durchgeführt. Forscher stehen vor der großen Herausforderung, eine Künstliche Intelligenz (KI) zu erschaffen, die auch moralische Entscheidungen treffen kann.


Künstliche Intelligenz steckt noch in den Kinderschuhen, aber die ersten Tests zu lernenden Maschinen wurden bereits durchgeführt. Forscher stehen vor der großen Herausforderung, eine Künstliche Intelligenz (KI) zu erschaffen, die auch moralische Entscheidungen treffen kann. Ohne kluge Filter nimmt eine KI einfach alle Informationen auf und bildet daraus eine Schnittmenge. So ist es Microsofts Chatbot "Tay" bei einem Testlauf ergangen. Der lernende Chatbot hat durch eine Vielzahl von Twitter-Botschaften eine höchst fragwürdige Entwicklung durchlaufen. Schnell wurden die anfangs einfachen Aussagen von sexistischen oder rassistischen Aussagen eingefärbt.

"Entscheidungen, die auf maschinellem Lernen basieren, können sowohl nützlich sein als auch einen sehr großen Einfluss auf unser Leben haben", sagt Moritz Hardt von Google. Das beste Beispiel hierfür ist der klassische (fiktive) Fall einer KI, die berechnet, dass die Welt ohne die Menschheit besser dran ist, und prompt zur Massenvernichtung übergeht. Was fehlt, ist die Fähigkeit, moralische Entscheidungen zu treffen.

Maschinelle Lernprozesse bieten ein großes Potenzial, so der allgemeine Tenor. Je simpler die Aufgabe, desto effektiver kann der Vorgang sein. "Bis wir jedoch genau wissen, wie einseitige Neigungen in der KI wirken, wäre ich sehr besorgt darüber, sie Entscheidungen treffen zu lassen, die direkte Auswirkungen auf das Leben von Menschen haben", ergänzt Experte Noel Sharkey von der University of Sheffield.

STARTSEITE