Praxisnaher Fahrplan: So nutzen Sie HubSpot-KI, um Content zu planen, Zielgruppen zu schärfen und Leads automatisiert zu Kunden zu entwickeln – ohne IT-Marathon.
Jetzt anmelden und lernen, wie Sie mit HubSpot-KI Prozesse automatisieren und Leads gezielt entwickeln.
Zwei starke Use Cases zeigen, wie eine CDP Spender- und Kundenbindung stärkt, Kampagnen optimiert und personalisierte Kommunikation ermöglicht – praxisnah und übertragbar.
Jetzt live dabei sein und aus zwei starken CDP-Cases konkrete Learnings für Ihr Unternehmen mitnehmen.
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten. (Bild: Pixabay / Public Domain)
Bild: Pixabay / Public Domain
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten.

Geschäftsschädigende Algorithmen: So treibt man KI dumme Vorurteile aus

14.02.2018 - Künstliche Intelligenz spiegelt die Vorurteile ihrer Schöpfer: Rassistische Programmierer schaffen rassistische Bots. Doch soweit muss man gar nicht gehen. Es verbrennt schon Umsatz, wenn unmotivierte Mitarbeiter miese Algorithmen machen. So geht's besser.

HANDLUNGSRELEVANZ

 
Operativ
Strategisch
Visionär
Technik
Medien
Wirtschaft
 
heute
morgen
übermorgen
Die iBusiness-Handlungsmatrix zeigt, wie langfristig die vorgestellten Aufgaben angegangen werden müssen.
TL;DR
Algorithmen spiegeln die Vorbehalte ihrer Schöpfer wider. So etwas im Nachhinein hinauszuprogrammieren kann schwer bis unmöglich sein.
Algorithmen sind auch nur Menschen, stellte iBusiness vergangene Woche in seiner Analyse Wie Vorurteile Algorithmen verfälschen Relation Browser fest: Sie haben Vorurteile. Schlimmstenfalls bedeutet das: Sie verhalten sich wie Rassisten und Sexisten.
  • Ein Bilderkennungs-Algorithmus von Google zur Homepage dieses Unternehmens Relation Browser hat 2015 irrtümlicherweise zwei Fotos schwarzer Menschen als Gorillas identifiziert und entsprechend kategorisiert.
  • 'Frauen gehören an den Herd' war buchstäblich das Urteil einer Software, die Verhältnisse zwischen Wörtern einordnen sollte. Der Algorithmus befand: Mann verhält sich zu Frau wie König sich zu Königin verhält. Soweit so okay. Aber dann urteilte das Programm: 'Mann verhält sich zu Programmierer wie Frau zu Hausfrau'.
  • Microsofts zur Homepage dieses Unternehmens Relation Browser Chatbot 'Tay' erging sich nach längerer Interaktion mit Nutzern im Web nur noch in rassistischen Plattitüden, sodass ihn seine Schöpfer zerknirscht vom Netz nahmen.
Diese drei Beispiele zeigen auch gleich schön die drei Wege auf, auf denen menschliche Voreingenommenheit in künstliche Intelligenzen gerät. Entweder der Fisch stinkt von den Daten her: Man füttert eine Software nur mit Fotos weißer Gesichter, stolpert sie dann über ein schwarzes, packt sie dieses aus Mangel an Input in den Gorilla-Ordner. Oder es liegt an der P

Premium-Inhalt

Dieser Premium-Inhalt war am Erscheinungstag für Basis-Mitglieder öffentlich abrufbar. Wenn Sie diesen Beitrag jetzt abrufen möchten, werden Sie einfach Premium-Mitglied - aktuell mit bis zu 50% Preisvorteil!

Premium-Mitglied werden Login
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
Verwandte Beiträge zu dieser Analyse
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema: