Kann AI Gewalt von Schulschützen reduzieren?

Menschen allein sind möglicherweise nicht in der Lage, ein Problem zu lösen, das von Menschen verursacht wird.

Das Problem mit der Frühwarnung

Laut einer Secret-Service-Studie von Schulschützen, die 37 Angriffe von 41 Angreifern seit 1974 untersuchte, informierten 75% der Schulschützen jemanden – meist einen Gleichen – über ihre Pläne im Voraus, und oft war das Schulpersonal auch auf Warnzeichen aufmerksam Schüler, die schließlich Schulschützen wurden. Die Princeton-Soziologin Katherine Newman, die tief in die Schule geschossen hat, sagte: “Sie [Schulschützen] explodieren niemals spontan; sie geben normalerweise viele Monate im Voraus Hinweise heraus. ”

In den meisten Fällen hat jedoch laut Geheimdienst niemand solche “roten Fahnen” im Voraus an die Behörden gemeldet.

Warum könnte KI helfen?

Obwohl die Gründe, warum Menschen die Behörden nicht warnen, unterschiedlich sind; vom Gruppenzwang (Sprüche sind nicht cool), bis zur Fülle von “Fehlalarmen” (viele Kids vent), zu kognitiven Verzerrungen wie dem Normalitätseffekt (wir planen oder reagieren nicht auf Probleme, die uns noch nie passiert sind) Zu gelernter Hilflosigkeit (Bürokraten werden sowieso nichts tun) haben alle Menschen, die Gefahrenzeichen für sich behalten, eine Gemeinsamkeit: Sie sind Menschen.

Und die Menschen sind – und werden es immer sein – sozialem Druck, kognitiven Verzerrungen, Überzeugungen und anderen Kräften ausgesetzt, die sie dazu bringen werden, auf absehbare Zeit keine genauen Bedenken hinsichtlich möglicher Schulschützen zu äußern. Selbst wenn sich mehr Menschen melden würden, würden die Behörden wahrscheinlich mit Fehlalarmen überhäuft werden und somit langsam auf echte Bedrohungen reagieren. Schließlich kennen selbst Schullehrer oder Schullehrer, die fortgeschrittene Warnungen vor einem Angriff hören, oft nicht alle Faktoren, die die Letalität vorhersagen – wie etwa den leichten Zugang zu Schusswaffen -, die ihnen helfen würden, echte Bedrohungen von Fehlalarmen zu unterscheiden.

Also hier ist eine radikale Idee: Lassen Sie uns künstliche Intelligenz (KI) zusammen mit den neuesten Fortschritten im digitalen Datenschutz anwenden, damit Computer – nicht Menschen – frühe Warnzeichen von Schulschießereien erzeugen.

Computer, auf denen AI-Algorithmen laufen, unterliegen keinem sozialen Druck und können viel mehr Informationen über potentielle Schützen – wie den Zugang zu Unterarmen – erhalten, als dies bei Gleichaltrigen oder Lehrern der Fall ist. Daher können KI-Systeme bei ausreichenden Daten und “Training” ziemlich hohe “Trefferraten” mit niedrigen “Fehlalarmen” erreichen. Darüber hinaus können neue Datenschutztechnologien die Bürgerrechte schützen, während die Computer ihre Zahlen verarbeiten.

Bevor ich auf die Gründe für die KI eingehe, zusammen mit Technologien zum Schutz der Privatsphäre zumindest theoretisch die Todesfälle durch Schulschützen reduzieren kann, muss ich anerkennen, dass keine Technologie, wie fortschrittlich und genau sie auch sein mag, das Problem alleine lösen kann, weil keine Technologie sie anspricht die tiefen kulturellen, anthropologischen, rechtlichen und politischen Wurzeln des Problems.

Im besten Fall bietet die Technologie nur Hoffnung, einige der Symptome tief verwurzelter Probleme wie Schulschießereien zu lindern.

Das heißt, wenn solche “symptomatischen” Behandlungen sogar ein Leben retten können, sind sie eine Überlegung wert.

Wie KI, mit parallelen Fortschritten in der digitalen Privatsphäre, könnte das Problem eindämmen

AI wird ziemlich gut bei einer Aufgabe, die Computerwissenschaftler als Klassifizierung bezeichnen: Hat ein Foto irgendwo eine Katze oder nicht? Ist ein Anrufer zu einem Kundenbetreuungscenter verärgert oder nicht? Ist eine Stimme auf einem Telefon ein Mann oder eine Frau, ein Muttersprachler oder ein Nicht-Muttersprachler? Wird ein Bewerber für Autoversicherung wahrscheinlich “churn” (Umsatz zu einem anderen Träger) oder nicht? AI ist bei all diesen Aufgaben gewachsen.

Es ist durchaus möglich – sogar wahrscheinlich -, dass KI-Algorithmen bald auch ziemlich gut darin “klassifizieren” könnten, welche Schüler echte Bedrohungen für tödliche Amokläufe sind, gegen welche Studenten es wahrscheinlich nicht tun werden. Die KI würde so viel unterschiedliche Daten wie möglich sowohl für Schützen als auch für Nicht-Schützen “erhalten” und würde “zwischen echten Bedrohungen und Fehlalarmen unterscheiden”. Beispiele für Daten wären:

  • Postings in den sozialen Medien (sowohl von potenziellen Schützen als auch von ihren Kollegen, die über potenzielle Schützen sprechen).
  • Aufnahmen von Schulüberwachungskameras (zum Beispiel die Arbeit von Dr. Paul Ekman an Mikroexpressionen deutet darauf hin, dass es möglich ist, tödliche Absichten von Gesichtsausdrücken zu erkennen).
  • Register von Waffeneigentum in Familien oder Verwandten von Studenten kreuzkorreliert mit Studentenkörperlisten. (Die meisten Schützen hatten leichten Zugang zu Schusswaffen, und oft waren sie von Feuerwaffen fasziniert).
  • Anonymisierte Berichte / Anliegen von Gleichaltrigen, Schulpersonal.
  • Demographische Daten zu Studenten (weiße, unsportliche, marginalisierte Männer mit überdurchschnittlichen Noten in ländlichen Gebieten umfassen laut dem Secret Service die meisten Schützen).

Ein enormes Problem bei der Verwendung der eben genannten Datenquellen ist der Schutz der Privatsphäre und der Bürgerrechte. Jede Organisation, sei es eine Schule oder Polizei, die solche Daten sammelte und korrelierte, würde sich wie Orwells Big Brother verhalten.

Aber dank aufkommender Technologien mit exotischen Namen wie homomorphe Verschlüsselung und sichere Multi-Party-Verschlüsselung ist es jetzt möglich, alle oben genannten Datenquellen – zum Zeitpunkt der Erfassung – zu verschlüsseln und KI-Berechnungen verschlüsselt durchzuführen. Zu keinem Zeitpunkt während des Datensammel-, Übertragungs-, Speicher- und Analysezyklus würde also irgendein Mensch – oder Computer in diesem Fall – wissen, wem die gesammelten Informationen gehören.

Nur in dem seltenen Fall, dass ein Klassifizierungsalgorithmus eine rote Flagge auslöst, würde eine Schule (oder möglicherweise ein Gericht) benachrichtigt werden, dass einem bestimmten Schüler Aufmerksamkeit geschenkt werden sollte (ohne die persönlichen Daten offen zu legen, die die Warnung der KI ausgelöst haben). so dass eine diskrete Untersuchung und letztlich eine Intervention geplant werden könnte (z. B. Beratung anbieten oder Schüler mit hohem Risiko beim Eintritt in die Schule auf Waffen überprüfen).

Diese Entsperrung der Identität könnte sich auf Beweise stützen, die von der KI einem Richter vorgelegt werden, zum Beispiel die Gründe für Besorgnis zusammenfassend (gewalttätige Social-Media-Beiträge, Zugang zu Waffen, Kommentare von Peers), ohne dem Richter sogar spezifische Details zu sagen. Nur wenn der Richter es für gerechtfertigt hielt, würde der Richter dann spezielle “digitale Schlüssel” verwenden (die nur der Justiz zur Verfügung stehen), um die Identität des Schülers für die Benachrichtigung der Schule und der Eltern freizuschalten.

Die Entscheidung der KI, einen Richter zu benachrichtigen, würde, wie oben vorgeschlagen, nicht durch sozialen Druck, kognitive Verzerrungen, erlernte Hilflosigkeit oder andere Faktoren beeinflusst werden, die dazu führen, dass Menschen eine Bedrohung melden oder nicht benachrichtigen.

Es stimmt, dass die Verwendung von KI zur Erkennung gefährlicher Schüler viele Herausforderungen mit sich bringt. Kann zum Beispiel eine öffentliche Institution – wie etwa eine Schule oder ein Strafjustizsystem – Maßnahmen ergreifen, die nur darauf basieren, was ein Student in der Zukunft tun könnte, im Gegensatz zu dem, was er tatsächlich getan hat?

Alle Fragen rund um KI und Schulschützen sind heikel und schwierig und mit ethischen Herausforderungen verbunden, und einige werden sagen, dass die Verwendung von KI ein de-humanisierender Ansatz sein könnte, um Todesfälle und Verletzungen durch Schulschießereien zu reduzieren.

Aber nichts beraubt einen Studenten ihrer Menschlichkeit – oder Rechte – mehr als von einem Mitschüler getötet zu werden.

Verweise

Farr, K. (2017). Adolescent Rampage School Shootings: Antworten auf schlechte Männlichkeiten von bereits in Schwierigkeiten geratenen Jungen, Geschlechterfragen DOI 10.1007 / s12147-017-9203-z

“Zwischenbericht über die Prävention gezielter Gewalt in Schulen”, Oktober 2000, Nationales Bedrohungsbewertungszentrum des US-Geheimdienstes.

https://www2.ed.gov/admins/lead/safety/preventingattacksreport.pdf

http://www.popcenter.org/problems/bullying/PDFs/ntac_ssi_report.pdf

Gemeinsame Merkmale aller Schulschützen in den USA seit 1970

https://en.wikipedia.org/wiki/Homomorphic_encryption