Skip to content

Twitter plant „Safety Mode“

Innovativer KI-basierter Algorithmus blockiert Cybermobber.
© Pixabay

Aktivieren Anwender den neuen „Safety Mode“ der US-Mikroblogging-Plattform Twitter, sperrt die Künstliche Intelligenz (KI) der Plattform alle Postings, die Beleidigungen oder Hasskommentare enthalten.

„Der Ansatz einer technologischen Lösung für das Problem des Cybermobbings ist nicht von der Hand zu weisen. Aber ein kompletter Schutz ist nicht garantiert. Algorithmen werden zwar immer genauer, können jedoch oft nicht zwischen den Zeilen lesen. Sie neigen auch dazu, deutlich radikaler und undifferenzierter zu sein als Menschen“, gibt Matthias Jax, Projektleiter bei Saferinternet http://saferinternet.at , gegenüber pressetext zu bedenken.

User sollen laut Twitter selbst entscheiden können, ob sie den „Safety Mode“ aktivieren oder nicht. Der Algorithmus achtet vor allem auf bestimmte Schlüsselwörter, die mit Cybermobbing in Verbindung stehen. Darunter sind Schimpfwörter und beleidigende Ausdrücke. Ist ein Account gegenüber Usern bösartig, blockiert das System dessen Bemerkungen für den Zeitraum von sieben Tagen.
Jedes Mal, wenn die Twitter-KI einen Account blockiert, erhalten Anwender eine entsprechende Benachrichtigung. Der Plattform zufolge kann der Algorithmus mehr als 50 Prozent der Hasskommentare entdecken, bevor Nutzer diese melden.

 

pressetext/Red.

Gefällt Ihnen der Beitrag?
Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on telegram
Telegram
Share on whatsapp
WhatsApp
Share on email
Email