Webinar: Connected Manufacturer trifft Future of Sales Jetzt kostenlos anmelden!
Industrie & Vertrieb von morgen starten heute.
Erfahren Sie praxisnah, wie Sie Technologie, Prozesse und Teams für die nächste Ära der industriellen Exzellenz fit machen.
Jetzt kostenlos anmelden!
Mehr Sichtbarkeit für Ihre Agentur Hier zu Premium-Plus upgraden
Alle Ihre Whitepaper, Pressemitteilungen und Gastbeiträge kostenlos auf iBusiness.de veröffentlichen. Dazu bessere Sichtbarkeit aller Ihrer Stellenanzeigen und Ihres Agenturprofils. Und noch viel mehr. Jetzt 50% Rabatt sichern und:
Hier zu Premium-Plus upgraden
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten. (Bild: Pixabay / Public Domain)
Bild: Pixabay / Public Domain
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten.

Geschäftsschädigende Algorithmen: So treibt man KI dumme Vorurteile aus

14.02.2018 - Künstliche Intelligenz spiegelt die Vorurteile ihrer Schöpfer: Rassistische Programmierer schaffen rassistische Bots. Doch soweit muss man gar nicht gehen. Es verbrennt schon Umsatz, wenn unmotivierte Mitarbeiter miese Algorithmen machen. So geht's besser.

HANDLUNGSRELEVANZ

 
Operativ
Strategisch
Visionär
Technik
Medien
Wirtschaft
 
heute
morgen
übermorgen
Die iBusiness-Handlungsmatrix zeigt, wie langfristig die vorgestellten Aufgaben angegangen werden müssen.
TL;DR
Algorithmen spiegeln die Vorbehalte ihrer Schöpfer wider. So etwas im Nachhinein hinauszuprogrammieren kann schwer bis unmöglich sein.
Algorithmen sind auch nur Menschen, stellte iBusiness vergangene Woche in seiner Analyse Wie Vorurteile Algorithmen verfälschen Relation Browser fest: Sie haben Vorurteile. Schlimmstenfalls bedeutet das: Sie verhalten sich wie Rassisten und Sexisten.
  • Ein Bilderkennungs-Algorithmus von Google zur Homepage dieses Unternehmens Relation Browser hat 2015 irrtümlicherweise zwei Fotos schwarzer Menschen als Gorillas identifiziert und entsprechend kategorisiert.
  • 'Frauen gehören an den Herd' war buchstäblich das Urteil einer Software, die Verhältnisse zwischen Wörtern einordnen sollte. Der Algorithmus befand: Mann verhält sich zu Frau wie König sich zu Königin verhält. Soweit so okay. Aber dann urteilte das Programm: 'Mann verhält sich zu Programmierer wie Frau zu Hausfrau'.
  • Microsofts zur Homepage dieses Unternehmens Relation Browser Chatbot 'Tay' erging sich nach längerer Interaktion mit Nutzern im Web nur noch in rassistischen Plattitüden, sodass ihn seine Schöpfer zerknirscht vom Netz nahmen.
Diese drei Beispiele zeigen auch gleich schön die drei Wege auf, auf denen menschliche Voreingenommenheit in künstliche Intelligenzen gerät. Entweder der Fisch stinkt von den Daten her: Man füttert eine Software nur mit Fotos weißer Gesichter, stolpert sie dann über ein schwarzes, packt sie dieses aus Mangel an Input in den Gorilla-Ordner. Oder es liegt an der P

Premium-Inhalt

Dieser Premium-Inhalt war am Erscheinungstag für Basis-Mitglieder öffentlich abrufbar. Wenn Sie diesen Beitrag jetzt abrufen möchten, werden Sie einfach Premium-Mitglied - aktuell mit bis zu 50% Preisvorteil!

Premium-Mitglied werden Login
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema: