Holen Sie sich Ihr 'iBusiness Executive Briefing' kostenlos iBusiness Daily mit Executive Briefings abonnieren
Abonnieren Sie den den 'iBusiness Daily Newsletter' und bekommen Sie zweimal wöchentlich das umfassende 'iBusiness Executive Briefing' kostenlos zugemailt: .
iBusiness Daily mit Executive Briefings abonnieren
Mehr Sichtbarkeit für Ihre Agentur Hier zu Premium-Plus upgraden
Alle Ihre Whitepaper, Pressemitteilungen und Gastbeiträge kostenlos auf iBusiness.de veröffentlichen. Dazu besseere Sichtbarkeit aller Ihrer Stellenanzeigen und Ihres Agenturprofils. Und noch viel mehr. Zu PremiumPlus hier entlang:
Hier zu Premium-Plus upgraden
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten. (Bild: Pixabay / Public Domain)
Bild: Pixabay / Public Domain
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten.

Geschäftsschädigende Algorithmen: So treibt man KI dumme Vorurteile aus

14.02.2018 - Künstliche Intelligenz spiegelt die Vorurteile ihrer Schöpfer: Rassistische Programmierer schaffen rassistische Bots. Doch soweit muss man gar nicht gehen. Es verbrennt schon Umsatz, wenn unmotivierte Mitarbeiter miese Algorithmen machen. So geht's besser.

HANDLUNGSRELEVANZ

 
Operativ
Strategisch
Visionär
Technik
Medien
Wirtschaft
 
heute
morgen
übermorgen
Die iBusiness-Handlungsmatrix zeigt, wie langfristig die vorgestellten Aufgaben angegangen werden müssen.
TL;DR
Algorithmen spiegeln die Vorbehalte ihrer Schöpfer wider. So etwas im Nachhinein hinauszuprogrammieren kann schwer bis unmöglich sein.
Algorithmen sind auch nur Menschen, stellte iBusiness vergangene Woche in seiner Analyse Wie Vorurteile Algorithmen verfälschen Relation Browser fest: Sie haben Vorurteile. Schlimmstenfalls bedeutet das: Sie verhalten sich wie Rassisten und Sexisten.
  • Ein Bilderkennungs-Algorithmus von Google zur Homepage dieses Unternehmens Relation Browser hat 2015 irrtümlicherweise zwei Fotos schwarzer Menschen als Gorillas identifiziert und entsprechend kategorisiert.
  • 'Frauen gehören an den Herd' war buchstäblich das Urteil einer Software, die Verhältnisse zwischen Wörtern einordnen sollte. Der Algorithmus befand: Mann verhält sich zu Frau wie König sich zu Königin verhält. Soweit so okay. Aber dann urteilte das Programm: 'Mann verhält sich zu Programmierer wie Frau zu Hausfrau'.
  • Microsofts zur Homepage dieses Unternehmens Relation Browser Chatbot 'Tay' erging sich nach längerer Interaktion mit Nutzern im Web nur noch in rassistischen Plattitüden, sodass ihn seine Schöpfer zerknirscht vom Netz nahmen.
Diese drei Beispiele zeigen auch gleich schön die drei Wege auf, auf denen menschliche Voreingenommenheit in künstliche Intelligenzen gerät. Entweder der Fisch stinkt von den Daten her: Man füttert eine Software nur mit Fotos weißer Gesichter, stolpert sie dann über ein schwarzes, packt sie dieses aus Mangel an Input in den Gorilla-Ordner. Oder es liegt an der P

Premium-Inhalt

Noch nicht iBusiness-Mitglied? Für Ihre Registrierung erhalten Sie ein Kontingent von fünf kostenfreien Abrufen für Premium-Analysen. Jeden Kalendermonat erhalten Sie zudem einen weiteren kostenfreien Abruf.

Kostenlos Registrieren Anmelden/Login
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema: