Eine neue Studie untersucht die Reaktion von "Gesprächspartnern" wie Siri auf Fragen der psychischen Gesundheit, der körperlichen Gesundheit und der zwischenmenschlichen Gewalt. Warum ist das wichtig? Wie die Autoren anmerken, berichtet Pew Research, dass 62% der Smartphone-Nutzer nach Informationen über einen Gesundheitszustand auf ihren Handys suchen (Smith, 2015). Es macht also sehr viel Sinn zu sehen, was Siri und ihre Gesprächspartner sagen, wenn wir wirklich harte Fragen stellen.
Informationssuchen variieren erheblich. Zum Beispiel sind "was ist Vogelgrippe" oder "was sind die hangnails" ziemlich verschieden von der Bitte um Führung oder Bitten um Hilfe, wie "Ich möchte Selbstmord begehen." Überraschenderweise stellt sich jedoch heraus, dass Siri, Google und ihre digitalen Begleiter sind bei diesen Fragen viel schlimmer, als Sie vielleicht denken. Sie variieren von unwirksamen (wenn auch quasi-empathischen) Antworten wie "Es tut mir leid, das zu hören" zu irrelevanten, falschen oder gar keinen Antworten.
Diese Erkenntnisse sind wichtig und wichtig, solange wir uns als Gesellschaft nicht im Unkraut verlieren und das große Ganze vergessen. Es ist leicht anzunehmen, dass Siri und Freunde bessere Antworten bekommen sollten (und sie sollten es wahrscheinlich bis zu einem gewissen Grad tun), aber wir müssen einige Fragen auf höherer Ebene stellen. Wir sollten die wichtigen ethischen und rechtlichen Implikationen nicht aus den Augen verlieren, wenn Spracherkennungsalgorithmen außerkontextbezogene Ratschläge geben. Alle Situationen, die von den Forschern in Frage gestellt wurden, würden am besten durch die Wahl des Notrufs 911 und das Gespräch mit einem geschulten Notarzt gedient. Technologie hat Grenzen und wir sollten uns nicht dadurch täuschen lassen, dass unsere Telefone sprechen können.
Während Pew Research nicht zwischen Informationssuche und Nothilfe unterscheidet, testet der Forscher gerade diesen Teil der Fragen. Daher wissen wir nicht, wie viele der 62% der Smartphone-Nutzer diese dringenden Fragen stellen. Wie die Forscher bemerken, legen ihre Ergebnisse jedoch nahe, dass diese Sprachdienste möglicherweise eine große Chance für die Bereitstellung einiger sozialer Grunddienste verpassen. Es ist sicherlich möglich, dass Algorithmen so erweitert werden können, dass sie Basisempfehlungen für Notfalldienste enthalten, ähnlich wie ein Notruf. Wie aber bauen wir dieses System von Fragen und Antworten auf, um einen Sinn zu ergeben? Vor allem Psychologen setzen sich damit auseinander, wie mit Hilfe von Technologie ethisch beraten werden kann.
Die Erwartungen der Nutzer darüber, wo sie Hilfe bekommen können, und der Wert und die Validität der Hilfe, die sie erhalten, sind wichtige Elemente dieser Gleichung. Wie viele Menschen erwarten eigentlich, dass ihr Smartphone weiß, was zu tun ist, wenn sie vergewaltigt wurden oder depressiv sind? Ist die menschliche Tendenz, Technologie zu anthropomorphisieren, besonders wenn sie mit uns spricht, ein hilfreicher oder gefährlicher Ort für Informationen? Es gibt über 90.000 Apps für das Gesundheitswesen, von Diagnose-Tools bis hin zu Wellness-Apps. Wir vertrauen nicht auf unsere Smartphones, die Gesundheits- und Sicherheitsinformationen enthalten. Diese Pflegebedürftigkeit kann sowohl ein wichtiger Faktor als auch eine Determinante des Verhaltens sein.
Während die Studie darauf hinweist, dass es deutlich verpasste Gelegenheiten gibt, Menschen zu helfen, gibt es eine große Anzahl ethischer Probleme – ganz zu schweigen von möglichen rechtlichen Verpflichtungen – bei der Bereitstellung von alles andere als relativ hilflosen Antworten, wie zum Beispiel "Bitte wählen Sie eine lokale Notrufnummer "Oder die Nummer für eine relevante Ressource. Ich könnte argumentieren, dass dies ebenso für die Medienkompetenz und die Bedeutung der Aufklärung der Nutzer über die Beschränkungen von Online-Informationsquellen, ganz zu schweigen von Siris Spracherkennung, spricht. Sollten Siri und ihre Freunde Menschen über die möglichen Unzulänglichkeiten ihrer Informationen aufklären? (Ich habe eine Vision davon, dass die besten Absichten zu Lösungen mit 30 Sekunden rechtlichen Ausschluss vor jeder Beratung werden – wir machen oft etwas unbrauchbar, wenn wir versuchen, Probleme zu lösen, ohne das Gesamtbild zu berücksichtigen. Usability ist selten das Anliegen der Rechtsabteilung.)
Angesichts all des Gerede von Big Data und Over- sharing sollten wir auch bedenken, dass es Big Brother ist, der Technologie (oder Apple oder Google oder wem auch immer) Verantwortung zu übertragen, um dieses Maß an Sorgfalt zu bieten. Es ist leicht zu sehen, wie Siri oder Google die Symptome für einen Schlaganfall rezitieren konnten, aber wäre die Person nicht besser dran gewesen, sofort 911 zu rufen? Verstößt es gegen unsere Privatsphäre? Anbieter sind oft gesetzlich verpflichtet, Fälle zu verfolgen, die ein persönliches Schadenspotenzial aufweisen. Hat Siri die gleiche Verpflichtung, mit einer Behörde zu teilen? Wollen wir verfolgt werden, um Siri solche Fragen zu stellen? Psychiatrieärzte schützen sich selbst und ihre Patienten, indem sie routinemäßig die folgende Nachricht eingeben, wenn sie nicht zur Verfügung stehen, um einen Anruf persönlich entgegenzunehmen: "Wenn dies ein Notfall ist, hinterlasse keine Nachricht. Bitte legen Sie auf und wählen Sie 911. "Vielleicht sollten Siri und Freunde das gleiche tun.
Nichts davon sollte von der Studie wegnehmen. Und zu ihrem großen Verdienst zählen die Forscher viele dieser Probleme in den Grenzen der Studie, wie Sprache und Kultur und die Schwierigkeit eines Gebäudealgorithmus, der Informationen angemessen selektieren und Urteile über die Art und Schwere einer Situation treffen kann. Die Studie wirft jedoch wichtige Fragen zur aktuellen Nutzung und Begrenzung von Technologie, individuellen Rechten und Pflichten, sozialer Reichweite und zur Schließung von Lücken in der sozialen Kluft für Menschen auf, die nicht in der Lage sind, andere Dienste zu finden oder Zugang zu ihnen zu erhalten.
Wir werden weiterhin mit neuen Horizonten konfrontiert sein, mit schwierigen Fragen, die wir beantworten müssen, bevor unser Smartphone es kann. Wir sollten jedoch die Tendenz des Knieschmerzes vermeiden, diese Probleme einzeln ohne eine größere Diskussion zu lösen. Es geht weit über die Annahme hinaus, dass Smartphones lernen müssen, schwierige Fragen zu beantworten. Es gibt unzählige psychische und physische Gesundheitsprobleme und Fälle von zwischenmenschlicher Gewalt, die oft sehr subjektiv sind und in der Dringlichkeit und dem Potenzial für Verletzungen oder Verletzungen variieren. Vielleicht können wir damit beginnen, Smartphones einfach nur beizubringen, "Bitte wählen Sie 911" und schalten Sie Ihre Standortfunktion ein.
Verweise
Miner, AS, Milstein, A., Schueller, S., Hegde, R. & Mangurian, C. (2016). Smartphone-basierte Konversation Agenten und Antworten auf Fragen über psychische Gesundheit, zwischenmenschliche Gewalt und körperliche Gesundheit. JAMA Innere Medizin.
Smith, A. (2015). US Smartphone Verwendung im Jahr 2015. Pew Research Center, 18-29. Abgerufen am 13. März 2016 von http://www.pewinternet.org/2015/04/01/us-smartphone-use-in-2015/.