20.000 Sperrungen und 90.000 Verwarnungen aufgrund toxischer Chat-Beiträge – so lautet das Fazit einer KI, welche den Chat im Shooter Counter-Strike: Global Offensive analysiert. Diese Zahlen gab es laut PCGamer.com in den ersten sechs Wochen (seit Ende August) zu melden. Ganze 7 Mio. Nachrichten wurden als „giftig“ eingestuft.
Die Hersteller des Spiels, Valve Software und Hidden Path Entertainment, haben demnach die KI „Minerva“ der Online-Spiele-Plattform FACEIT eingesetzt. Das Unternehmen hat auch die 2018er-Veranstaltung „CS:GO London Major“ veranstaltet, in Zusammenarbeit mit Google Cloud und Googles Gründerzentrum Jigsaw.
Nebenbei wurde die durch Machine-Learning herangezüchtete Künstliche Intelligenz auch damit beauftragt, Spam-Nachrichten zu markieren. Nach einem abgeschlossenen Match trudelten die Verwarnungen ein; bei mehrmaligen Verstößen seien die Sanktion entsprechend stärker ausgefallen.
Als Ergebnis wird zudem vermeldet, dass die Zahl toxischer Nachrichten in dem genannten Zeitraum um 20% gesunken sei – und die der Nutzer, die entsprechend harsch posteten, um 8%. Der Testlauf sei erst nach Monaten des Feintunings gestartet worden, um zuvor falsche Meldungen zu minimieren. Die Schöpfer der KI scheinen dem offiziellen Blog nach noch viel mit ihr vorzuhaben:
„Die Spiel-Chat-Erkennung ist erst die erste und allersimpelste Anwendung, zu der Minerva fähig ist – und eigentlich eher eine Feldstudie, welche als erster Schritt für unsere Vision für diese KI dienen soll. Wir sind wirklich begeistert von dieser Grundlage, da sie eine starke Basis dafür schafft, die uns erlaubt, Miverva zu verbessern, bis wir schließlich jegliche Arten missbräuchlichen Verhaltens in Echtzeit erkennen und angehen können. Innerhalb der kommenden Wochen werden wir neue Systeme ankündigen, die Minerva bei ihrem Training unterstützen werden.“
Nebenbei wurde die durch Machine-Learning herangezüchtete Künstliche Intelligenz auch damit beauftragt, Spam-Nachrichten zu markieren. Nach einem abgeschlossenen Match trudelten die Verwarnungen ein; bei mehrmaligen Verstößen seien die Sanktion entsprechend stärker ausgefallen.
Als Ergebnis wird zudem vermeldet, dass die Zahl toxischer Nachrichten in dem genannten Zeitraum um 20% gesunken sei – und die der Nutzer, die entsprechend harsch posteten, um 8%. Der Testlauf sei erst nach Monaten des Feintunings gestartet worden, um zuvor falsche Meldungen zu minimieren. Die Schöpfer der KI scheinen dem offiziellen Blog nach noch viel mit ihr vorzuhaben:
„Die Spiel-Chat-Erkennung ist erst die erste und allersimpelste Anwendung, zu der Minerva fähig ist – und eigentlich eher eine Feldstudie, welche als erster Schritt für unsere Vision für diese KI dienen soll. Wir sind wirklich begeistert von dieser Grundlage, da sie eine starke Basis dafür schafft, die uns erlaubt, Miverva zu verbessern, bis wir schließlich jegliche Arten missbräuchlichen Verhaltens in Echtzeit erkennen und angehen können. Innerhalb der kommenden Wochen werden wir neue Systeme ankündigen, die Minerva bei ihrem Training unterstützen werden.“
Was natürlich stimmt ist, dass solche Algorithmen mit Ironie und Sarkasmus Schwierigkeiten haben. Darum wäre ich ja auch nicht dafür, solche Algorithmen einfach komplett autark arbeiten zu lassen.
Was z.B. möglich ist und auch schon so gemacht wird, ist Wahrscheinlichkeiten zu berechnen, also sagen wir mal, wir haben 3 Aussagen und die haben eine Wahrscheinlichkeit von 40%, 70% und 99%, dass sie toxische Nachrichten sind. Dann wird dem Mitarbeiter, der solche Meldungen verarbeitet nur diese Meldungen vorgelegt. Und dann derjenige nochmal schauen: "Aha, die Meldung mit 40% ist falsch", wird also nicht bestraft. Das alleine hätte schon einen gigantischen Vorteil, weil die menschlichen Mitarbeiter so massiv entlastet werden.
MfG Ska
Was simple Filter tun, hat ja Facebook beim Einsatz von Filtern erfahren, als plötzlich alle "Breast-Feeding"-Gruppen und entsprechenden Inhalte gesperrt wurden, weil der Filter nur stur auf die Zeichenfolge "Breast" reagiert hat. Das will man vermeiden. Deswegen Kontext-Erkennung. Um False Positives wie in Deinem Beispiel zu erkennen und eben NICHT zu melden. Steht ja auch in der Original-Meldung, dass man den Algorithmus zuerst "trainiert" hat, um besser Kontext zu erkennen.
Um das noch etwas auszuführen:
Eine "echte KI"(eigentlich "strong AI/starke KI") wäre kein Algorithmus, der eine EINZIGE Aufgabe leisten kann, sondern wäre ein System das den kompletten menschlichen Geist nachahmen würde. Somit also alles simulieren würde, was ein Menschen geistig leistet. Salopp gesagt wäre es also eine künstliche Version eines menschlichen Geistes und wäre zu den selben geistigen Leistungen fähig wie ein Mensch, wenn nicht sogar noch mehr.
=> Aber sotwas gibt es (noch) nicht. Es ist auch fraglich ob es soetwas jemals geben wird darüber streiten sich die Wissenschaftler noch.
Worüber wir reden sind sog. "weak Ai"-Algorithmen. Algorithmen die EINE EINZIGE Aufgabe leisten können, dabei aber Konzepte verwenden, die den menschlichen Geist IN TEILEN nachahmen. Besonders bekannt und populär sind ja "künstliche neuronale Netze", diese sind ultra-primitiv im Vergleich zum menschlichen Gehirn. Zum Vergleich: Der Mensch hat ca. 90 Millarden Neuronen im Gehirn und diese sind massiv verbunden. Soetwas können wir mit heutiger Technik nicht mal ansatzweise nachahmen. Zwar können wir neuronale Netze mit einer ähnlich großen Anzahl von Neuronen erstellen, aber operabel sind diese meisten nicht. Einfach weil die Rechenleistung fehlt. Darum bewegen sich komplexe "künstliche neuronale Netze", die man auch praktisch eingesetzt, so zwischen ein paar hundert tausend und ein paar millionen Neuronen. Um so ein neuronales Netz zu trainieren braucht man meistens zu Beginn große Datenmengen. Das wäre bei Online-Games kein Problem. Da hätte man mehr als genug. Diese Datenmengen müsste man, bevor man den Lernalgorithmus anschmeißt, vorbereiten. Diese Datenvorbereitungen(auch Datenaufarbeitung, Data Preperation) ist der wichtigste Schritt, wenn man diesen falsch macht oder die Vorbereitung ungünstig für das gegebene Problem ist, dann wird der Algoirthmus scheitern. So eine Vorbereitung kann wie folgt aussehen:
"Fuck me, I'm stupid, my bad" -> deklariert als "keine Beleidigung"<br...
Ihr wollt mir erzählen, dass das Programm auch ein ironisches "Fuck me, I'm stupid, my bad", was den gegenüber beleidigen soll erkennen kann?