Skip to content

Maschinen mit KI “sehen” anders als Menschen

"Neuronales Faltungsnetzwerk" untersucht - Sicherheitsanwendungen können gefährlich sein
©pixabay

Stadtverkehr: In komplexen Verkehrssituationen kann eine KI versagen

Ein sogenanntes “Neuronales Faltungsnetzwerk” sieht Objekte anders als Menschen es tun. Das könnte in realen KI-Anwendungen gefährlich sein, sagt James Elder von der University of York, etwa in der Aus- und Weiterbildung. Dies ist das Ergebnis einer Untersuchung, die neuartige visuelle Reize namens “Frankensteins” nutzt, um herauszufinden, wie das menschliche Gehirn und Faltungsnetzwerke ganzheitliche, konfigurative Objekteigenschaften verarbeiten.

“Frankensteins sind einfach Objekte, die auseinandergenommen und falsch wieder zusammengesetzt wurden. Infolgedessen haben sie alle richtigen lokalen Funktionen, aber an den falschen Orten. Unsere Ergebnisse erklären, warum Deep-AI-Modelle unter bestimmten Bedingungen versagen, und weisen auf die Notwendigkeit hin, Aufgaben jenseits der Objekterkennung zu berücksichtigen, um die visuelle Verarbeitung im Gehirn zu verstehen”, sagt Elder.

Fehleinschätzungen durch “Abkürzungen”

Diese Modelle würden dazu neigen, bei der Lösung komplexer Erkennungsaufgaben “Abkürzungen” zu nehmen. Während diese Abkürzungen in vielen Fällen funktionieren, so Elder, können sie in einigen realen Anwendungen der Künstlichen Intelligenz (KI), an denen die Forscher derzeit mit Industrie- und Regierungspartnern arbeiten, gefährlich sein. Zu solchen Anwendungen gehört der Straßenverkehr, der von Menschen anders gesehen wird als von Maschinen.

“Die Objekte in einer belebten Verkehrsszene – Autos, Fahrräder und Fußgänger – behindern sich gegenseitig und gelangen als Durcheinander von getrennten Fragmenten zum Auge eines Fahrers”, erklärt Elder. “Das Gehirn muss diese Fragmente richtig gruppieren, um die richtigen Kategorien und Positionen der Objekte zu identifizieren. Ein KI-System zur Verkehrssicherheitsüberwachung, das nur in der Lage ist, die Fragmente einzeln wahrzunehmen, wird bei dieser Aufgabe versagen und möglicherweise Risiken für ungeschützte Verkehrsteilnehmer falsch einschätzen”, so der Forscher.

Netzwerke brauchen Trainingseinheiten

Den Forschern zufolge führen Änderungen an Training und Architektur, die darauf abzielen, Netzwerke gehirnähnlicher zu machen, nicht zu einer konfigurativen Verarbeitung, und keines der Netzwerke war in der Lage, menschliche Objekturteile von Versuch zu Versuch genau vorherzusagen. “Wir spekulieren, dass Netzwerke trainiert werden müssen, um der menschlichen Konfiguralempfindlichkeit gerecht zu werden, um ein breiteres Spektrum von Objektaufgaben über die Kategorieerkennung hinaus zu lösen”, bemerkt Elder abschließend.

PTE/Red.

Gefällt Ihnen der Beitrag?
Facebook
Twitter
LinkedIn
Telegram
WhatsApp
Email
Cookie-Einwilligung mit Real Cookie Banner