Das ist der Titel eines etwas längeren Artikels über
KI, Gesichtserkennung, gesellschaftliche Akzeptanz sowie mögliche Probleme. Interesting read!
Zwei Beispiele zu
bad data aus dem Artikel sind so schön, die muss ich her mal zitieren. Die kann man gut gebrauchen, wenn man anderen Leuten Big-Data-KI erklärt.
Der Autor schreibt, dass man mit seinen Trainingsdaten extrem aufpassen muss, weil die KI absolut keine Ahnung hat, was sie tut – die macht ja stumpf Statistik und muss sich ihre Regeln selber erfinden. Hier am Beispiel medizinischer Bilderkennung:
dermatologists tend to put rulers in the photo of cancer, for scale - so if all the examples of ‘cancer’ have a ruler and all the examples of ‘not-cancer’ do not, that might be a lot more statistically prominent than those small blemishes. You inadvertently built a ruler-recogniser instead of a cancer-recogniser.
Eine weitere Aussage ist, dass man den Leuten dringend beibringen muss, dass KI erstens nicht unfehlbar ist und zweitens auch keine ja/nein-Antworten liefert, sondern Wahrscheinlichkeiten. Schön formuliertes Beispiel:
Machine learning is much better at doing certain things than people, just as a dog is much better at finding drugs than people, but we wouldn’t convict someone on a dog’s evidence.
„Money Quotes“ würde fefe die beiden Absätze nennen. In
seinem Blog bin ich über den Link auf den Artikel gestolpert.
Und das Hundebeispiel erinnert mich an Franks Vergleich von Algorithmen und Pferden aus diesem
Frank&Fefe-Podcast (hoffentlich ist das die richtige Folge).