Saturday , 20 May 2024
Tecnología

Hay gente que utiliza la IA para planificar asesinatos. La pregunta es qué están haciendo las empresas de IA al respecto. – Tinta clara

  • febrero 27, 2026
  • 0

El 10 de febrero, una joven de 18 años mató a tiros a su madre y a su hermano. Luego acudió al instituto y asesinó a siete personas

Hay gente que utiliza la IA para planificar asesinatos. La pregunta es qué están haciendo las empresas de IA al respecto.

 – Tinta clara

El 10 de febrero, una joven de 18 años mató a tiros a su madre y a su hermano. Luego acudió al instituto y asesinó a siete personas más, suicidándose finalmente. Lo inquietante es que el autor había hablado de ello con ChatGPT y OpenAI tuvo la oportunidad de notificar a la policía, pero decidió no hacerlo.

¿Qué ha pasado? cuentan en el Diario de Wall Street que, en junio del año pasado, el sistema automatizado de OpenAI detectó varios mensajes que un usuario había enviado a ChatGPT describiendo escenarios de violencia armada. Para algunos empleados fueron muy preocupantes porque podrían terminar en violencia real, por lo que hubo un debate interno sobre si notificar a las autoridades canadienses. Finalmente cerraron su cuenta, pero no avisaron a nadie. Ahora Las autoridades canadienses los han citado para pedir explicaciones.

Hay más. Él Tiroteo en Tumbler Ridge No es el único caso en el que se ha utilizado la IA para planificar un crimen. A principios de 2025, un hombre estacionó un Cybertruck lleno de explosivos frente a un hotel de Las Vegas con la intención de detonarlo (aunque al final la única víctima fue él mismo). Días antes, el autor Le pregunté a ChatGPT cómo hacerlo.. En este caso, el chatbot no detectó ningún mensaje preocupante, pero lo sabemos porque OpenAI buscó entre sus mensajes después del hecho.

En Seúl, una mujer fue encarcelada por el presunto asesinato de dos personas por intoxicación por benzodiazepinas. La investigación reveló que el acusado había ido a ChatGPT para saber cuál era la dosis peligrosa y qué pasaba si se mezclaba con alcohol. Los mensajes en este caso no son tan alarmantes y podrían surgir de una duda genuina, pero es otro ejemplo del uso de ChatGPT para la comisión de un delito.

¿Por qué es importante?. Las inteligencias artificiales se han convertido en una especie de confesionario al que contamos todo tipo de secretos, incluso los más oscuros. Hay quienes consideran a la IA su amiga, su psicóloga o incluso su amante. En este sentido, no es extraño que alguien le diga a ChatGPT que va a matar a su familia o quiere detonar un auto lleno de explosivos. Lo preocupante, y en lo que deberíamos centrarnos, es lo que las empresas están haciendo al respecto. Por el momento parece insuficiente.

¿Están obligados? Confesarle a tu psicólogo o psiquiatra que quieres hacer daño a alguien es una de las razones por las que no sólo puedes, sino que debes romper tu relación. secreto profesional y alertar a las autoridades. Sin embargo, por mucho que utilicemos los chatbots como psicólogos, de momento no existe ninguna ley que obligue a las empresas de IA a informar de este tipo de interacciones, sino que es una decisión interna. La obligación, por tanto, no es jurídica, sino ética.

Cómo hacer una bomba casera. Casos como el del tirador de Tumbler Ridge no son algo que haya comenzado a suceder con la llegada de los chatbots con IA. Las instrucciones para crear bombas caseras existen desde hace décadas. llevando a las autoridades a la cabeza, Incluso antes de que se popularizara el uso de Internet, manuales de este tipo circulaban. Lo mismo ocurre con los casos de suicidio; No es necesario que le preguntes a ChatGPT, podemos buscarlo en Google o escribir en un foro.

En declaraciones a New York TimesUn ex empleado de OpenAI destaca un matiz importante: con un chatbot no se suele hacer una simple búsqueda, sino que se puede tener una conversación más larga donde las intenciones son más claras. En este sentido, puede ser más fácil detectar casos como el del tirador de Tumbler Ridge, pero también puede haber muchos falsos positivos debido a usuarios que escriben historias ficticias o utilizan la IA como juego de roles. Complicado.

En | Invertir en centros de datos para IA es una locura y va a empeorar. mucho peor

Imagen de portada | Pexels, desempaquetar