Wat technologie doet om zelfmoord te voorkomen

Hoewel het niet mogelijk is elke zelfmoord te voorkomen, zijn er veel dingen die het risico kunnen helpen verlagen. En een deel daarvan is zo dichtbij als uw smartphone.

Gezondheidszorgsystemen, technologiebedrijven en onderzoeksinstellingen onderzoeken hoe ze kunnen helpen bij zelfmoordpreventie. Ze zijn op zoek naar technologie in het algemeen - en kunstmatige intelligentie (AI) in het bijzonder - om subtiele tekenen van zelfmoordrisico op te vangen en een mens te waarschuwen om in te grijpen.

"Technologie, hoewel niet zonder uitdagingen, biedt ongelooflijke mogelijkheden," zegt Rebecca Bernert, PhD, directeur en oprichter van het Suicide Prevention Research Laboratory aan de Stanford University School of Medicine in Palo Alto, CA.

Bernert zegt bijvoorbeeld dat als AI risicopatiënten kan signaleren op basis van hun gezondheidsdossiers, hun huisartsen beter voorbereid kunnen zijn om hen te helpen. Hoewel professionals in de geestelijke gezondheidszorg hier speciaal voor zijn opgeleid, blijkt uit onderzoek dat van de mensen die door zelfmoord overlijden, ongeveer 45% hun huisarts ziet in de laatste maand van hun leven. Slechts 20% ziet een professional in de geestelijke gezondheidszorg.

Hier zijn enkele van de technologische ontwikkelingen die in ontwikkeling zijn of al plaatsvinden.

Aanwijzingen van je stem

Onderzoekers van het Worcester Polytechnic Institute in Worcester, MA, bouwen aan een AI-programma met de naam EMU (Early Mental Health Uncovering) dat gegevens van een smartphone verzamelt om het zelfmoordrisico van de gebruiker van de telefoon in te schatten.

Deze technologie is nog in ontwikkeling. Het zou deel kunnen uitmaken van een gezondheidsapp die je op je telefoon zou kunnen downloaden - misschien op aanraden van je zorgverlener.

Nadat je alle vereiste toestemmingen hebt gegeven, zou de app AI inzetten om je zelfmoordrisico via je telefoon te monitoren. Onder de inbegrepen functies is de optie om te spreken in de stemanalysator van de app, met behulp van een meegeleverd script of door de app toestemming te geven om segmenten van telefoongesprekken op te nemen. De app kan subtiele kenmerken in de stem detecteren die kunnen wijzen op depressie of zelfmoordgedachten.

"Er zijn bekende stemkenmerken die mensen niet kunnen detecteren, maar die AI wel kan detecteren omdat het getraind is op grote datasets", zegt psycholoog Edwin Boudreaux, PhD. Hij is de vice-voorzitter van onderzoek op de afdeling spoedeisende geneeskunde van de UMass Chan Medical School.

"Het kan de stem en al deze andere gegevensbronnen combineren om een robuuste voorspelling te doen of je stemming depressief is en of je zelfmoordgedachten hebt", zegt Boudreaux, die geen financieel belang heeft in het bedrijf dat deze app maakt. "Het is als een telefoonbiopsie."

Smartphonegegevens zouden, met toestemming van de gebruiker, gebruikt kunnen worden om waarschuwingen naar telefoongebruikers zelf te sturen. Dit zou hen kunnen aanzetten om hulp te zoeken of hun veiligheidsplan te herzien. Of misschien kan het iemands zorgverlener waarschuwen.

Apps hebben momenteel geen goedkeuring van de overheid nodig om hun claims te ondersteunen, dus als je een app gebruikt die te maken heeft met zelfmoordpreventie, bespreek het dan met je therapeut, psychiater of arts.

Expertise delen

Google helpt mensen die het risico lopen zelfmoord te plegen, zoals de National Suicide Prevention Lifeline. Google heeft zijn AI-expertise ook gedeeld met The Trevor Project, een LGBTQ-zelfmoordhotline, om de organisatie te helpen bellers met het hoogste risico te identificeren en sneller hulp te bieden.

Wanneer iemand in crisis contact opneemt met The Trevor Project via sms, chat of telefoon, beantwoorden ze drie intakevragen voordat ze worden doorverbonden met crisisondersteuning. Google.org Fellows, een liefdadigheidsprogramma van Google, hielp The Trevor Project computers te gebruiken om woorden in de antwoorden op de intakevragen te identificeren die verband hielden met het hoogste, meest dreigende risico.

Wanneer mensen in crisis een aantal van deze trefwoorden gebruiken bij het beantwoorden van de intakevragen van The Trevor Project, komt hun oproep vooraan in de rij voor ondersteuning te staan.

Een cultuur van taaiheid

U weet misschien al dat zelfmoorden een bijzonder risico vormen voor militairen en politieagenten. En u hebt ongetwijfeld gehoord over de zelfmoorden onder gezondheidswerkers tijdens de pandemie.

Maar er is nog een sector met een hoog zelfmoordpercentage: de bouw.

Volgens de CDC lopen bouwvakkers twee keer zoveel kans om door zelfmoord te sterven als mensen in andere beroepen en vijf keer zoveel kans om door zelfmoord te sterven dan door een werkgerelateerd letsel. Hoge percentages lichamelijk letsel, chronische pijn, onstabiele banen en sociaal isolement als gevolg van lange reizen voor het werk kunnen allemaal een rol spelen.

JobSiteCare, een telezorgbedrijf voor bouwvakkers, test een hightech antwoord op zelfmoord in de sector. Het bedrijf biedt telegezondheidszorg aan bouwvakkers die gewond zijn geraakt op bouwplaatsen via tablets die zijn opgeslagen in een kastje in de medische trailer op de bouwplaats. Het breidt die zorg nu uit met geestelijke gezondheidszorg en crisisrespons.

Werknemers kunnen binnen enkele seconden hulp krijgen via de tablet in de trailer. Ze hebben ook toegang tot een 24/7 hotline en doorlopende geestelijke gezondheidszorg via telezorg.

"Tele-mentale gezondheidszorg is een van de grote succesverhalen in de telegeneeskunde", zegt Dan Carlin, MD, oprichter en CEO van JobSiteCare. "In de bouw, waar je werk je van plaats naar plaats brengt, zal telegeneeskunde je overal volgen."

Zelfmoordveiligheidsplan App

De Jaspr-app is bedoeld om mensen te helpen na een zelfmoordpoging, te beginnen als ze nog in het ziekenhuis liggen. Dit is hoe het werkt.

Een zorgverlener begint de app te gebruiken met de patiënt in het ziekenhuis. Samen stellen ze een veiligheidsplan op om een toekomstige zelfmoordpoging te voorkomen. Het veiligheidsplan is een document dat een zorgverlener ontwikkelt met een patiënt om hem te helpen omgaan met een toekomstige geestelijke gezondheidscrisis - en de stressfactoren die typisch hun suïcidale gedachten triggeren.

De patiënt downloadt Jaspr's home companion app. Ze hebben toegang tot hun veiligheidsplan, hulpmiddelen voor het omgaan met een crisis op basis van voorkeuren uit hun veiligheidsplan, hulpbronnen voor hulp tijdens een crisis en bemoedigende video's van echte mensen die een zelfmoordpoging hebben overleefd of een dierbare aan zelfmoord hebben verloren.

Wat als AI het mis heeft?

Er is altijd een kans dat AI verkeerd inschat wie er risico loopt op zelfmoord. Het is slechts zo goed als de gegevens die het algoritme voeden.

Een "vals positief" betekent dat iemand wordt geïdentificeerd als risicodrager, maar dat niet is. In dit geval zou dat betekenen dat iemand ten onrechte wordt aangemerkt als iemand met een zelfmoordrisico.

Bij een "fout-negatief" wordt iemand die een risico loopt niet gesignaleerd.

Het risico op schade door zowel fout-negatieve als fout-positieve meldingen is te groot om AI te gebruiken om zelfmoordrisico's vast te stellen voordat onderzoekers zeker weten dat het werkt, zegt Boudreaux.

Hij merkt op dat Facebook AI heeft gebruikt om gebruikers te identificeren die mogelijk een acuut zelfmoordrisico lopen.

Meta, het moederbedrijf van Facebook, reageerde niet op het verzoek van doctor om commentaar op zijn gebruik van AI om zelfmoordrisico's onder zijn gebruikers te identificeren en aan te pakken.

Volgens de website stelt Facebook gebruikers in staat om berichten te melden over berichten, waaronder Facebook Live-video's, die erop kunnen wijzen dat iemand in een zelfmoordcrisis verkeert. AI scant ook berichten en maakt, wanneer dit nodig wordt geacht, de optie voor gebruikers om het bericht te melden prominenter. Ongeacht of gebruikers een bericht melden, kan AI ook Facebook-berichten en live-video's scannen en markeren. Medewerkers van Facebook bekijken berichten en video's die door gebruikers of door AI zijn gemarkeerd en beslissen hoe ze ermee omgaan.

Ze kunnen contact opnemen met de persoon die de post heeft gemaakt met het advies om contact op te nemen met een vriend of een crisishulplijn, zoals de National Suicide Prevention Lifeline, die deze maand het driecijferige nummer 988 heeft gelanceerd. Gebruikers kunnen rechtstreeks contact opnemen met crisislijnen via Facebook Messenger.

In sommige gevallen, wanneer een bericht aangeeft dat er sprake is van een urgent risico, kan Facebook contact opnemen met het politiebureau in de buurt van de Facebook-gebruiker in de potentiële crisis. Een politieagent wordt dan naar het huis van de gebruiker gestuurd voor een welzijnscontrole.

Het sociale-mediaplatform TikTok, waarvan de vertegenwoordigers ook weigerden te worden geïnterviewd voor dit artikel maar via e-mail achtergrondinformatie verstrekten, volgt soortgelijke protocollen. Deze omvatten het verbinden van gebruikers met crisishotlines en het melden van dringende berichten aan de rechtshandhaving. TikTok biedt ook hotlinenummers en andere crisisbronnen als reactie op zelfmoordgerelateerde zoekopdrachten op het platform.

Privacyproblemen

De mogelijkheid dat social media platforms contact opnemen met de politie heeft kritiek opgeleverd van zowel privacy experts als deskundigen op het gebied van geestelijke gezondheid zoals Boudreaux.

"Dit is een verschrikkelijk idee," zegt hij. "Facebook heeft het ingezet zonder dat gebruikers wisten dat de AI op de achtergrond opereerde en wat de gevolgen zouden zijn als de AI iets signaleerde. Het sturen van een politieagent zou de situatie alleen maar kunnen verergeren, vooral als je een minderheid bent. Behalve dat het gênant of mogelijk traumatiserend is, ontmoedigt het mensen om te delen omdat er slechte dingen gebeuren als je deelt."

Volgens het Journal of Law and the Biosciences is het algoritme dat Facebook-berichten naar rechtshandhavingsinstanties kan sturen daarom verboden in de Europese Unie.

De gevolgen voor mensen die ten onrechte als risicovol worden aangemerkt, aldus Boudreaux, hangen af van de manier waarop de organisatie zich inlaat met de veronderstelde risicodrager. Een mogelijk onnodig telefoontje van een gezondheidswerker kan niet dezelfde schade aanrichten als een onnodig bezoek van de politie.

Als u of iemand die u kent aan zelfmoord denkt, kunt u contact opnemen met de National Suicide Prevention Lifeline. In de VS kun je vanaf 16 juli 2022 de National Suicide Prevention Lifeline bellen, sms'en of chatten via 988. U kunt de Lifeline ook bellen op het oorspronkelijke nummer, 800-273-8255. Hulp is 24/7 beschikbaar in het Engels en Spaans.

 

 

 

Hot