Big Data trifft auf Verhaltensgesundheit

Dr. Big Brother, diagnostizierst du es oder nicht.

Pixabay

Quelle: Pixabay

Wem gehören die von Ihnen generierten Daten, wenn Sie online und elektronisch interagieren? Was ist mit den Informationen, die über Sie erstellt werden? Haben Sie die Fähigkeit, diese Informationen zu sehen, geschweige denn zu löschen oder zu kontrollieren? Nach vielen Berichten scheint dies einer der weitreichendsten sozialen und rechtlichen Kämpfe der Neuzeit zu sein. Jetzt erreichen diese Daten einen Ort, an dem die Vertraulichkeit und der Schutz der Privatsphäre am stärksten sind: Ihre psychische Gesundheit.

Als Facebook bekannt gab, dass Cambridge Analytica und eine Reihe anderer Gruppen Zugang zu Daten über Millionen von Facebook-Nutzern erhalten hatten, begannen wir, die Breite dieses Themas zu erfassen. Mithilfe von Daten, die von und über einzelne Personen generiert wurden, konnten diese Unternehmen gezielte Werbung und elektronische Engagements anstoßen, die sich auf die Art und Weise auswirken sollten, wie Menschen wählen, kaufen und ausgeben.

BJ Fogg ist Psychologe an der Stanford University, der das Stanford Persuasive Technology Lab gegründet hat, wo Forscher Techniken entwickeln, um “Menschen zu verändern” und “das, was Menschen denken und was Menschen tun …” zu beeinflussen. Seine Arbeit hat viele im Silicon Valley beeinflusst. und moderne Bestrebungen, die Technologie auf differenziertere Weise zu nutzen, um das Verhalten, einschließlich der Gesundheit, zu beeinflussen. Diese Bemühungen führen zu Software und Geräten, die die Aufmerksamkeit und Zeit der Menschen besser fordern und befehligen. Indem Menschen auf Bildschirme und Geräte gelockt werden und häufiger Social-Media-Software und -Plattformen genutzt werden, werden Anzeigen, die auf diesen Plattformen platziert werden, stärker exponiert und generieren mehr Einnahmen.

Dopamine Labs ist eine andere Gruppe, die “Brain Hacking” verwendet, um das Engagement der Nutzer zu steigern und “Ihren Nutzern unsere perfekten Dopaminausbrüche zu geben … Ein Ausbruch von Dopamin fühlt sich nicht nur gut an: Es hat sich bewährt, Benutzerverhalten und -gewohnheiten neu zu verkabeln.” (So ​​funktioniert Dopamin natürlich nicht, aber jeder liebt Dopamin, um smart zu klingen …)

Pixabay

Quelle: Pixabay

Dokumente, die von Facebook durchgesickert wurden, zeigten, dass das Unternehmen in der Lage war, zu erkennen und zu reagieren, wenn sich Nutzer, insbesondere Teenager, unsicher, wertlos, gestresst, ängstlich oder überfordert fühlten. Im Jahr 2014 wurde Facebook kritisiert, als es ein Nutzerexperiment durchführte, um die Effekte, die es durch “emotionale Ansteckung” hervorrufen konnte, zu testen und zu inspirieren und die emotionalen Hinweise zu ändern, die die Nutzer erhielten.

Vielleicht ist es nicht alles schlecht? Immerhin nutzt Facebook heute ein System künstlicher Intelligenz, um suizidgefährdete Nutzer zu erkennen und zu identifizieren. Wenn sie erkannt werden, kann eine Person, die selbstmörderische Aussagen macht, von einem Facebook-Moderator kontaktiert werden oder Informationen über lokale Ressourcen oder Ersthelfer (Polizei oder Feuerwehr) erhalten. In einigen Fällen kontaktieren Mitglieder des Facebook-Sicherheitsteams sogar Ersthelfer und 911, bei denen sich der Facebook-Nutzer befindet, und informieren sie über das Suizidrisiko, das sie entdeckt haben. In diesen Fällen können Ersthelfer dann eine “Person-Überprüfung” durchführen und die identifizierte Person besuchen. Dies ist ein übliches Werkzeug, das von Psychologen verwendet wird, wenn sie sich des Risikos bei einem Patienten bewusst werden. Beachten Sie, dass Nutzer von Facebook sich derzeit nicht von diesem Prozess abmelden können und nicht zugestimmt haben, dass ihre psychische Gesundheit und ihr Suizidrisiko überwacht werden. Als lizenzierter Arzt muss ich, wenn ich mich mit einem Patienten treffe, im Voraus erklären, dass, wenn ich glaube, dass sie eine Gefahr für mich selbst oder andere darstellen, ich beauftragt bin, sie zu melden. In den neuen Nutzungsbedingungen von Facebook ist ein Hinweis enthalten, dass sie ihre Daten verwenden, um “festzustellen, wenn jemand Hilfe benötigt”, obwohl die detaillierten Informationen, auf die Facebook in dieser Offenlegung verweist, nicht klarstellen, dass Notfalldienste von Facebook in Ihrem Namen kontaktiert werden können .

Mindstrong Health, ein weiteres Startup-Unternehmen in Palo Alto, verfügt über eine Plattform, die die Smartphone-Nutzung von Menschen auf Anzeichen von Depression überwacht. Es wurde von Dr. Thomas Insel, einem ehemaligen Direktor des National Institute of Mental Health, mitbegründet. Das Unternehmen beteiligt sich auch an der Erforschung der elektronischen Zeichen des Traumas.

Dies sind alles Probleme, die von Benutzern generierte Daten betreffen, bei denen das Verhalten der tatsächlichen Person analysiert wird. Aber was ist mit Daten über Sie und Ihre psychische Gesundheit? Diese Daten sind auch da draußen. Es war das Thema zahlreicher Datenschutzverletzungen in der VA, von Managed Care Organisationen und Gesundheitsdienstleistern. Daten über Sie, Ihre psychischen Gesundheitsdiagnosen und Behandlungen, die Sie erhalten haben, einschließlich Medikamente, sind alle da draußen für das Ergreifen.

Pixabay

Quelle: Pixabay

Andere Gruppen sammeln und teilen Informationen über Sie und Ihre Verhaltensbedürfnisse. Drei sind mehrere neue Software- und Elektronikprojekte, die Plattformen für Einsatzkräfte und Strafverfolgungsbehörden haben, um Datenbanken über Bürger mit verhaltensbezogenen Gesundheitsproblemen oder -bedürfnissen zu erstellen, auf die Responder zugreifen, wenn sie mit diesen Personen interagieren. RideAlong, ein interessantes in Seattle ansässiges Projekt, hat sorgfältig darüber nachgedacht, welche Mitarbeiter der Strafverfolgungsbehörden auf die Informationen zugreifen können, die sie in ihrem System behalten, und entschieden, dass Informationen über Diagnosen beispielsweise nicht identifiziert werden sollten. Es gibt jedoch noch keine Bestimmungen, nach denen eine Person tatsächlich Informationen über sie, die in diesem System gespeichert sind, kennen oder ändern kann. Ich habe gehört, dass Leute aus dieser Firma anwesend sind, und während sie die Vertraulichkeit ernst nehmen, wollen sie der Strafverfolgungsbehörde auch ein Werkzeug zur Verfügung stellen, um Informationen auszutauschen – über Sie.

Collective Medical Technologies ist eine Oregon-Firma mit einer ähnlichen Plattform, die eine Datenbank mit robusten Informationen über Personen erstellt, verfolgt und teilt, die in Notaufnahmen von Krankenhäusern gehen. Die Datenbank kann nur von Gesundheitsdienstleistern und Managed-Care-Anbietern abgerufen werden, aber es enthält Aufzeichnungen darüber, warum Menschen in die Notaufnahme gehen, welche Behandlung sie erhalten und welche Techniken bei der Deeskalation hilfreich waren. Ein Verhaltensheilungsanbieter wie ich (Offenlegung, ich und die Organisation, die ich führe, sind jetzt ein teilnehmender Gesundheitsdienstleister in diesem Projekt) kann sogar benachrichtigt werden, wenn einer meiner Patienten in der Notaufnahme auftaucht, so dass ich dazu in der Lage bin um zu erreichen und sich an ihrer Behandlung zu beteiligen. Da diese Daten wiederum über Personen und nicht über die Person generiert werden und von Unternehmen weitergegeben werden, die den Geheimhaltungsgesetzen unterliegen, müssen die einzelnen Personen selbst nicht zustimmen und wissen möglicherweise nicht einmal, dass sie oder ihre Daten in diesem System enthalten sind.

Daten über Ihre Vorgeschichte von Verhaltensdiagnosen und -behandlungen werden verwendet, um Entscheidungen zu treffen, die von Strafverfolgungsbehörden, Tech-Unternehmen, Managed-Care-Versicherungsgesellschaften, Staaten und Regierungen und vielen anderen Gruppen, die Zugang zu diesen Informationen haben, getroffen werden. Dieser Verlauf hilft Ihnen möglicherweise, mehr Zugriff auf den Support zu erhalten, kann jedoch auch dazu verwendet werden, Ihre Optionen und Auswahlmöglichkeiten einzuschränken. Dr. Big Brother, diagnostizierst du es oder nicht.

Pixabay

Quelle: Pixabay

Als Anbieter von verhaltensorientierten Gesundheitsleistungen, der auf nationaler und nationaler Ebene in die Politik involviert ist, habe ich gesehen, dass der Anstieg von Data Mining und Analyse in letzter Zeit in die Welt der Verhaltensgesundheit überging. Ich bin darüber in Konflikt, um ganz ehrlich zu sein. Ich kann definitiv viele Orte sehen, an denen diese Informationen Leben retten, Tragödien verhindern und Menschen helfen können. Aber ich werde immer wieder an dystopische Science-Fiction erinnert, wo der Staat oder Systeme künstlicher Intelligenz Anzeichen von Unglück entdecken und sich bemühen, diese Menschen und ihre Gefühle zu verändern oder zu verändern. Haben wir ein Recht, unglücklich zu sein? Hatten berühmte Künstler und Genies wie Van Gogh, Robin Williams, Anthony Bourdain – alle Individuen mit Geschichten von bekannten Verhaltensgesundheitsbedürfnissen – entdeckt und behandelt worden, wären sie vielleicht nicht gestorben und hätten weiterhin erstaunliche Arbeit geleistet. Aber welches Recht hatten sie, eine Entscheidung zu treffen, geisteskrank zu sein und allein gelassen zu werden?

Daten über Ihre Verhaltens-, mentale und emotionale Gesundheit werden gesammelt und analysiert. Große Datenmengen wie diese werden verwendet. Diese Information wird nicht gesammelt, nur damit sie dort sitzen kann. Wie es verwendet wird und mit wessen Erlaubnis, ist alles Teil einer großen, beängstigenden Frage, die wir gerade nicht beantworten können.