KI macht soziale Medien zur nächsten Frontlinie für Suizidprävention

Eine junge Frau sieht Inhalte auf ihrem Telefon an.

(SeaPRwire) –   “Wir sind auf Ihren Beitrag gestoßen… und es sieht so aus, als durchleben Sie gerade schwierige Zeiten”, beginnt die Nachricht. “Wir sind hier, um Ihnen Materialien und Ressourcen zur Verfügung zu stellen, die Ihnen möglicherweise Trost spenden.” Es folgen Links zu Hilfetelefonen für Suizid, einem 24/7 Chat-Service und Geschichten von Menschen, die psychische Krisen überwunden haben. “Ich sende Ihnen eine virtuelle Umarmung”, schließt die Nachricht.

Diese Nachricht, die als private Nachricht auf Reddit von der KI-Firma Samurai verschickt wurde, stellt dar, was einige Forscher als vielversprechendes Werkzeug im Kampf gegen die Suizidrate in den USA ansehen, die fast 50.000 Leben pro Jahr fordert. Unternehmen wie Samurai nutzen KI, um soziale Medien-Beiträge auf Suizid-Absichten hin zu analysieren und dann durch Strategien wie direkte Nachrichten einzugreifen.

Es gibt eine gewisse Ironie darin, soziale Medien für Suizid-Prävention einzusetzen, da ihnen oft die Schuld an der psychischen Gesundheits- und Suizid-Krise in den USA gegeben wird. Aber einige Forscher glauben, dass es ein echtes Versprechen gibt, direkt zur Quelle zu gehen, um “Menschen in Not in Echtzeit zu erkennen und sich durch Millionen von Inhalten einen Weg zu bahnen”, sagt die Mitbegründerin von Samurai, Patrycja Tempska.

Samurai ist nicht das einzige Unternehmen, das KI einsetzt, um gefährdete Menschen in sozialen Medien zu finden und zu erreichen. Das Unternehmen Sensing hat berichtet, dass sein KI-Modell jeden Tag mehr als 400 soziale Medien-Beiträge kennzeichnet, die suizidale Absichten andeuten. Und Meta, die Muttergesellschaft von Facebook und Instagram, überwacht die Aktivitäten oder das Surfverhalten, das darauf hindeutet, dass sich jemand Gedanken über Suizid macht. Wenn jemand Suizid-bezogene Inhalte teilt oder sucht, werden Informationen über Hilfsangebote wie die Suizid- und Krisen-Hotline angezeigt – oder, wenn Meta-Mitarbeiter es für notwendig halten, werden Rettungskräfte gerufen.

Zugrunde liegt die Idee, dass Algorithmen möglicherweise etwas tun können, was Menschen traditionell nicht geschafft haben: Personen zu erkennen, die sich selbst gefährden, damit sie rechtzeitig Hilfe bekommen können, bevor es zu spät ist. Und es gibt wissenschaftliche Belege für diese Hoffnung.

Vor über einem Jahrzehnt demonstrierte John Pestian vom Computational Medicine Center am Cincinnati Children’s Hospital, dass KI die suizidale Absicht in Texten genauer erkennen kann als menschliche Kliniker – ein Befund, der das Potenzial von KI aufzeigte, suizidale Absichten in sozialen Medien zu erkennen. Seitdem haben weitere Studien gezeigt, dass KI suizidale Absichten in sozialen Medien-Beiträgen auf verschiedenen Plattformen erkennen kann.

Unternehmen wie Samurai Labs testen diese Erkenntnisse in der Praxis. Von Januar bis November 2023 hat das Modell von Samurai mehr als 25.000 potenziell suizidale Beiträge auf Reddit erkannt, wie Unternehmensdaten zeigen, die TIME vorliegen. Dann entscheidet ein menschlicher Überwacher, ob der Nutzer eine Nachricht mit Anweisungen zum Erhalt von Hilfe erhalten soll. Etwa 10% der Menschen, die diese Nachrichten erhielten, kontaktierten eine Suizid-Hotline, und die Vertreter des Unternehmens arbeiteten bei vier persönlichen Rettungen mit Ersthelfern zusammen. (Samurai hat keine offizielle Partnerschaft mit Reddit, sondern nutzt seine Technologie unabhängig, um Beiträge auf der Plattform zu analysieren. Reddit setzt andere Suizid-Präventionsfunktionen wie eine ein, die es Nutzern ermöglicht, Beiträge zu melden.)

Mitbegründer Michal Wroczynski fügt hinzu, dass die Intervention von Samurai möglicherweise zusätzliche Vorteile gebracht hat, die schwerer zu verfolgen sind. Einige Menschen hätten zum Beispiel später eine Hotline angerufen oder einfach davon profitiert, dass sich jemand um sie sorgt. “Das hat mir Tränen in die Augen getrieben”, schrieb eine Person in einer Nachricht, die TIME vorliegt. “Jemand sorgt sich genug, um sich um mich zu sorgen?”

Wenn sich jemand in einer akuten psychischen Krise befindet, kann eine Ablenkung – wie das Lesen einer Nachricht auf dem Bildschirm – lebensrettend sein, weil sie aus einem schädlichen Gedankenkreislauf herausreißt, sagt Dr. Christine Moutier, Chief Medical Officer der American Foundation for Suicide Prevention. Aber es sei entscheidend, dass Unternehmen wissen, was KI in einem Moment der Not kann und nicht kann, sagt Dr. Jordan Smoller.

Dienste, die soziale Medien-Nutzer mit menschlicher Unterstützung verbinden, können effektiv sein, sagt Pestian. “Wenn Sie einen Freund hätten, würde er vielleicht sagen: ‘Lass mich Dich ins Krankenhaus fahren'”, sagt er. “Die KI könnte das Auto sein, das die Person zur Versorgung bringt.” Was seiner Meinung nach riskanter ist, ist es, “die KI die Versorgung übernehmen zu lassen”, indem sie darauf trainiert wird, Aspekte der Therapie nachzuahmen. Ein Mann in Belgien starb durch Suizid, nachdem er mit einem Chatbot gesprochen hatte, der ihn ermutigte – ein tragisches Beispiel für die Grenzen der Technologie.

Neben potenzieller Ungenauigkeit gibt es auch ethische und Datenschutzfragen. Soziale Medien-Nutzer wissen möglicherweise nicht, dass ihre Beiträge analysiert werden oder wollen das nicht. Das kann insbesondere für Angehörige von Communitys relevant sein, die ein erhöhtes Suizid-Risiko aufweisen, aber von diesen KI-Überwachungssystemen überproportional häufig erkannt werden, wie Forscher aufzeigten.

Und die Möglichkeit, dass Suizid-Bedenken an Polizei oder andere Rettungskräfte weitergeleitet werden, bedeutet, dass Nutzer “festgehalten, durchsucht, ins Krankenhaus eingewiesen und gegen ihren Willen behandelt werden könnten”, sagt der Gesundheitsrechtsexperte Mason Marks.

Moutier von der AFSP sagt, es gebe genug vielversprechende Aspekte bei KI für Suizid-Prävention, um es weiter zu erforschen. Bis dahin würde sie sich aber wünschen, dass soziale Medien-Plattformen die psychische Gesundheit ihrer Nutzer ernster nehmen, bevor es zu einer Krise kommt. Plattformen könnten mehr tun, um Menschen vor belastenden Bildern, dem Entwickeln eines schlechten Körperbildes und dem ständigen Vergleichen mit anderen zu schützen, sagt sie. Sie könnten auch hoffnungsvolle Geschichten von Menschen, die psychische Krisen überwunden haben, sowie Ressourcen für Menschen, die selbst betroffen sind oder einen Angehörigen haben, der betroffen ist, stärker bewerben, fügt sie hinzu.

Einige dieser Arbeit ist bereits im Gange. Meta entfernte von Juli bis September letzten Jahres mehr als 12 Millionen Beiträge im Zusammenhang mit Selbstverletzungen oder fügte Warnhinweise hinzu. Auch TikTok hat Schritte unternommen, suizidbezogene Inhalte zu entfernen und Nutzer, die nach solchen Beiträgen suchen, den Zugang zu verwehren. Aber wie eine kürzliche Anhörung im Senat mit den CEOs von Meta, TikTok, X, Snap und Discord zeigte, besteht immer noch Verbesserungsbedarf.

Algorithmen, die bei erkannter Notlage eingreifen, konzentrieren sich “auf den nachgelagertsten Moment des akuten Risikos”, sagt Moutier. “Bei der Suizid-Prävention ist das ein Teil davon, aber nicht das Ganze.” In einer idealen Welt würde niemand diese Situation überhaupt erreichen.

Wenn Sie oder jemand, den Sie kennen, eine psychische Krise oder Suizidgedanken haben, rufen oder texten Sie die 988 an. Bei lebensbedrohlichen Notfällen wählen Sie bitte den Notruf.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.