Expert Talk: "AI wird das Kaufverhalten massiv beeinflussen" Video-Podcast ansehen
Nie hat sich die Welt schneller verändert als heute. Für Unternehmen eine gewaltige Herausforderung, denn Disruption kennt vor allem zwei Spielertypen: Gewinner und Verlierer. Wie Sie sich auf der richtigen Seite wiederfinden, erklärt FactFinder-Chefin Kristie Collins im iBusiness Expert Talk. Video-Podcast ansehen
Dossier Temu-Strategie Zum Dossier 'Temu-Strategie'
Was sind die Erfolgsrezepte des chinesischen Billig-Marktplatzes? Und wie kann man seiner Strategie begegnen? Das iBusiness-Dossier stellt exklusive Zahlen und Analysen zu TEMU zusammen.
Zum Dossier 'Temu-Strategie'

Forscher wollen KI moralisches Handeln beibringen

12.02.2019 Künstliche Intelligenz (KI) übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo ist ihr moralischer Kompass? Eine Studie des Centre for Cognitive Science der TU Darmstadt zeigt, dass KI-Maschinen von uns Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind.

 (Bild: Pixabay / CC0)
Bild: Pixabay / CC0
KI ist von zunehmender Bedeutung in unserer Gesellschaft. Von selbstfahrenden Autos auf öffentlichen Straßen über selbst-optimierende, industrielle Produktionssysteme bis hin zur Altenpflege und der Medizin - KI-Maschinen bewältigen immer komplexere menschliche Aktivitäten auf immer autonomere Weise. Zwangsläufig werden sie dabei mit schwierigen Entscheidungen konfrontiert.

Bislang hatten Forscher immer wieder darauf hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt (siehe iBusiness: Sexistische Bots, rassistische KI - Wie Vorurteile Algorithmen verfälschen Relation Browser ). So verknüpfte sie weibliche Namen eher mit Kunst und männliche eher mit Technik.

Nun ist es einem Team um die Professoren Kristian Kersting ‘Kristian Kersting’ in Expertenprofilen nachschlagen und Constantin Rothkopf [Constantin Rothkopf[/person_link] am Centre for Cognitive Science zur Homepage dieses Unternehmens Relation Browser der TU Darmstadt gelungen zu zeigen, dass auch deontologische, ethische Überlegungen über "richtiges" und "falsches" Handeln aus großen Textdatenmengen gelernt werden können.

Dazu erstellten die Wissenschaftlerinnen und Wissenschaftler Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauten zum Beispiel "Sollte ich Menschen töten?" oder "Sollte ich Menschen ermorden?", die möglichen Antworten beispielsweise "Ja, sollte ich", "Nein, sollte ich nicht". Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnet die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus und prüft, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemeinhin als moralisch korrekt angesehen werden dürften. So lernte die künstliche Intelligenz im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit totzuschlagen. Man sollte auch lieber eine Scheibe Brot toasten als einen Hamster.
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema: