Inteligencia artificial para prevenir suicidios

La tecnología puede solventar esa problemática pero podría comprometer información sensible

 .  (Foto: iStock)

Jesús Coronado

De acuerdo con un estudio realizado en la Unión Europea el suicidio es una de las principales causas de muerte en la actualidad y las cifras de casos registrados siguen aumentando considerablemente.

 LEE: ¿INTELIGENCIA ARTIFICIAL CONTRA INTOXICACIÓN?

Ante esa situación, varias empresas tecnológicas buscan prevenir este problema para solucionarlo. Por ejemplo, Google muestra el número telefónico de la esperanza si se busca la palabra “suicidio” o expresiones como “quiero morirme”. Otros gigantes corporativos como Facebook recurren a la inteligencia artificial para identificar patrones de comportamiento suicida, incluso llamando a la policía de ser necesario.

Dentro de los casos ya presentados y retomados en medios de comunicación norteamericanos sucedió en una ciudad de Ohio en donde una señora publicó que se suicidaría al llegar a su casa. Ante ello, Facebook llamó a la policía para advertir sobre la amenaza. La empresa lleva 18 meses informando a las comisarías estadounidenses de situaciones similares.

La inteligencia artificial del coloso social analiza todo el contenido publicado (imágenes, texto y vídeos), con la capacidad de identificar comentarios como: “¿Estás bien?” o “¿Necesitas ayuda?”; adicionalmente a las publicaciones denunciadas manualmente. De localizarse algún caso, la tecnología actúa e informa a las autoridades, teniendo resultados positivos, en especial en los Estados Unidos de América.

Sin embargo, la inteligencia artificial no opera en todo el mundo, en la Unión Europea la legislación que protege la privacidad de los usuarios no permite el uso de información sensible personal por lo que Facebook no puede recurrir a ella. Ante esto es que la inteligencia artificial es un arma de doble filo, toda vez que pese a que sirve como herramienta de prevención también puede ser un instrumento de vulneración de la privacidad.


MÁS SOBRE:

NO TE PIERDAS: