Besonders bedenklich wird es, wenn nicht nur einzelne Photos per KI erstellt werden, sondern Videosequenzen. Schon vor einigen Jahren hatte ich ein Beispiel gesehen, wo eine KI mit einer Originalsequenz von Obama "gefüttert" wurde. Dann wurde in die KI ein Text eingetippt und gleich darauf lief dort ein scheinbar echtes Obama-Video mit Worten die der ehemalige US-Präsident nie gesagt hatte.
Hast du am Ende des Artikels das Quiz zur Erkennung der KI Bilder gemacht? ich hatte nur 4 von 11 richtig. Man kann es wirklich nicht unterscheiden. Es ist Zufall...
Ja, die sind besser geworden, sehr schnell sogar. Bei der letzten Diskussion hier (wenn ich mich gerade recht erinnere war das hier) gab es noch massive Probleme mit Augen und Händen (z.B.: falsche Anzahl Finger, komische Haltung, komische Form der Finger). Das hat sich inzwischen halt auch erledigt.
Ich habe mich weitestgehend auf meinen Instinkt verlassen. Das Bild, das am ehesten dieses „Uncanny Valley“ Gefühl ausgelöst hat war dann meine Wahl. Für genauere Untersuchungen waren die Bilder zu klein. Andere Spick-Aktionen, wie die Bilder in die Google-Suche zu schmeißen oder so, habe ich mal bewusst vermieden. Beim Lesen vorn Artikeln, etc, machen das auch die Wenigsten.
Die meisten wissen ja nicht mal, dass die Autos in der Werbung schon seit mehr als 10 Jahren nicht mehr echt sind.
Zwei Bilder habe ich mit den Fingern größer gezogen, um mir sicher zu sein.
Ansonsten habe kch danach entschieden, welche Bilder zu glatt aussehen.
Denn das echte Leben ist nicht glatt und perfekt. Die KI-Bilder sind es aber.
6/11, im Sinne eines Doppelblindtests statistisch noch immer mit Zufall gleichzusetzen. Hätte 7/11 sein können, wenn ich bei einem Bild auf meine Intuition gehört hätte :D
Wenn man der KI allerdings sagt: „Erzeuge mir ein Bild, das ähnlich zu diesem hier *bildhochlad* ist“, wundert mich das Ergebnis nicht.
Einerseits freue ich mich über die neuen Möglichkeiten, andererseits sehe ich natürlich auch die Gefahren. Rein theoretisch kann nun jeder (ohne größere Fähigkeiten) Bilder fälschen und im Gegensatz zu klassischen Manipulationen, scheint es hier auch noch keine computergestützten Erkennungsverfahren zu geben. Von jedem öffentlich zugänglichen Bild von euch geht also eine potentielle Gefahr aus, noch mehr als vorher schon. Gerade die beruflichen Netzwerke wie Xing oder Linkedin dürften da wahre „Goldgruben“ sein.
Ein Beweisfoto ist also nicht mehr ein Beweis - bzw. es können falsche Beweise nicht nachprüfbar erstellt werden. - Solche Warnungen gibt es schon lange. Aber irgendwie rücken sie jetzt näher an uns heran.
Ich finde das gruselig. Wo soll das noch hinführen?