Wie neutral ist KI?

Lesedauer beträgt 1 Minuten
Autor: Scho

„Eine Maschine hat keine Emotionen und ist daher neutral“ – dass das nicht immer stimmt, erläuterte Keynote-Speakerin Kenza Ait Si Abbou Lyadin am zweiten DMEA-Tag. Denn die Künstliche Intelligenz lerne von bereits bestehenden Daten. Dadurch könnten Vorurteile wiederholt und mit einem maximalen Effekt multipliziert werden. Ein Beispiel sei die Gesichtserkennung, die Männer mit heller Gesichtsfarbe am besten erkenne. Auch KI-Texte lernen von bestehenden Texten und könnten so ein verzerrtes Bild zu einzelnen Personengruppen zeichnen.

Dies müsse auch beim Einsatz von KI im Gesundheitswesen berücksichtigt werden. Ein Beispiel sei hier das Thema Hautscreening per App. Grundsätzliche sei die Automatisierung sinnvoll, denn so ließen sich große Datenmengen verarbeiten und die Diagnose verbessern. Wichtig sei jedoch, von vornherein die App so aufzusetzen, dass sie unterschiedliche Hauttypen erkennt. Ähnlich verhalte es sich bei der Diagnose von Herzinfarkten. Hier sind die Symptome bei Männern und Frauen häufig unterschiedlich. KI lerne aber von bestehenden Daten, die vor allem von männlichen Patienten stammten. Hier gelte es, bei der Konzeption von digitalen Anwendungen ethische Fragen von vornherein mitzudenken und die entsprechenden Akteure mit an Bord zu holen.

Diese Artikel könnten Sie auch interessieren:

Hausärztinnen verspüren mehr Wert­schätzung – berufliche Diskriminierung unverändert

Hausärztinnen verspüren mehr Wert­schätzung – berufliche Diskriminierung unverändert

Ärztinnen in 49 Ländern sind laut einer Umfrage der American University of Beirut mit ihren Karrieren zufrieden.