Skip to content

YouTube warnt User vor Hass-Kommentaren

Künstliche Intelligenz erkennt verletzende Beiträge und informiert Nutzer über Regelverstöße.
© Pixabay

Der Videodienst YouTube will Anwender künftig warnen, wenn diese einen verletzenden oder anstößigen Kommentar posten. Der Algorithmus der Google-Tochter soll erkennen, ob ein User-Beitrag problematisch ist. Ein Pop-up-Fenster macht Nutzer darauf aufmerksam, dass ihr Kommentar möglicherweise ein Verstoß gegen die Richtlinien ist, denen auch ein Link beigefügt ist. Der Kommentar kann jedoch trotzdem abgegeben werden, denn es muss sich ja nicht unbedingt um einen Regelverstoß handeln. Die Künstliche Intelligenz (KI) soll lediglich eine Empfehlung abgeben.

„Kommentare spielen eine wichtige Rolle dabei, wie Content-Produzenten mit ihrem Publikum interagieren. Aber Probleme mit der Qualität der Beiträge sind häufig. Wir haben in Technologie investiert, die besser verletzende Kommentare erkennt, indem sie das Thema von Videos und den Kontext der Bemerkungen in Betracht zieht“, heißt es von YouTube.

Gerechtere Monetarisierung

Neben der Eindämmung von verletzenden Kommentaren will YouTube Content-Produzenten auch mit einer gerechteren Monetarisierung helfen. Nach vielen Beschwerden über Diskriminierung bittet das Unternehmen Video-Macher um verschiedene Informationen, wie ihre Ethnizität oder ihr Geschlecht. Dadurch will YouTube feststellen, ob das System bestimmte Gruppen von Produzenten benachteiligt.

pressetext/red

Gefällt Ihnen der Beitrag?
Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on telegram
Telegram
Share on whatsapp
WhatsApp
Share on email
Email