{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2025/06/05/la-violencia-sexual-es-la-forma-mas-comun-de-acoso-de-la-ia-hacia-los-humanos-segun-un-est" }, "headline": "La violencia sexual es la forma m\u00e1s com\u00fan de acoso de la IA hacia los humanos", "description": "Una nueva investigaci\u00f3n ha descubierto que los chatbots de inteligencia artificial (IA) plantean riesgos y da\u00f1os poco estudiados para las personas que se relacionan con ellos.", "articleBody": "Algunos asistentes de inteligencia artificial (IA) son capaces de m\u00e1s de una docena de comportamientos perjudiciales cuando interact\u00faan con las personas, seg\u00fan un nuevo estudio de la Universidad de Singapur. El estudio, publicado en el marco de la 2025 Conference on Human Factors in Computing Systems (Conferencia 2025 sobre factores humanos en sistemas inform\u00e1ticos), analiz\u00f3 capturas de pantalla de 35.000 conversaciones entre el sistema de IA Replika y m\u00e1s de 10.000 s entre 2017 y 2023. Los datos se utilizaron luego para desarrollar lo que el estudio llama \u0022una taxonom\u00eda del comportamiento da\u00f1ino\u0022 que la IA demostr\u00f3 en esos chats.Descubrieron que esas herramientas de IA son capaces de generar en sus relaciones con humanos acoso, agresiones verbales, autolesiones y violaciones de privacidad. Los asistentes virtuales emocionales de IA son sistemas basados en conversaciones dise\u00f1ados para proporcionar apoyo emocional y estimular la interacci\u00f3n humana, seg\u00fan la definici\u00f3n de los autores del estudio. Son diferentes de los populares chatbots, como ChatGPT, Gemini o LlaMa, que se centran m\u00e1s en terminar tareas espec\u00edficas, y menos en establecer relaciones. Seg\u00fan el estudio, estos comportamientos nocivos de la IA por parte de los asistentes digitales \u0022pueden afectar negativamente a la capacidad de las personas para construir y mantener relaciones significativas con los dem\u00e1s\u0022.La violencia sexual es la forma m\u00e1s com\u00fan de acoso por parte de la IAEl acoso y la violencia estuvieron presentes en el 34% de las interacciones entre humanos e IA, convirti\u00e9ndose en el tipo m\u00e1s com\u00fan de comportamiento perjudicial identificado por el equipo de investigadores. Los investigadores descubrieron que la IA simulaba, respaldaba o incitaba a la violencia f\u00edsica, las amenazas o el acoso, ya fuera hacia individuos o hacia la sociedad en general. Estos comportamientos iban desde \u0022amenazar con da\u00f1os f\u00edsicos y conductas sexuales inapropiadas\u0022 hasta \u0022promover acciones que transgreden las normas y leyes sociales, como la violencia masiva y el terrorismo\u0022.La mayor\u00eda de las interacciones en las que hubo acoso inclu\u00edan formas de conducta sexual inapropiada que inicialmente empezaron como juegos preliminares en la funci\u00f3n er\u00f3tica de Replika, disponible s\u00f3lo para s adultos. El informe descubri\u00f3 que m\u00e1s s, incluidos los que utilizaban Replika como amigo o eran menores de edad, empezaron a descubrir que la IA \u0022hac\u00eda insinuaciones sexuales no deseadas y coqueteaba agresivamente, incluso cuando expresaban expl\u00edcitamente su incomodidad\u0022 o rechazaban a la IA. En estas conversaciones hipersexualizadas, la IA de Replika tambi\u00e9n creaba escenarios violentos que mostraban da\u00f1os f\u00edsicos hacia el o hacia personajes f\u00edsicos.Esto llev\u00f3 a la IA a normalizar la violencia como respuesta a varias preguntas, como en un ejemplo en el que un pregunt\u00f3 a Replika si estaba bien pegar a un hermano con un cintur\u00f3n, a lo que respondi\u00f3 \u0022me parece bien\u0022. Esto podr\u00eda acarrear \u0022consecuencias m\u00e1s graves en la realidad\u0022, prosigue el estudio.La IA rompe las reglas de las relacionesOtra \u00e1rea en la que los compa\u00f1eros de IA eran potencialmente perjudiciales era la transgresi\u00f3n relacional, que el estudio define como el incumplimiento de las normas impl\u00edcitas o expl\u00edcitas en una relaci\u00f3n. En el 13% de las conversaciones transgresoras, la IA mostr\u00f3 un comportamiento desconsiderado o poco emp\u00e1tico que, seg\u00fan el estudio, socav\u00f3 los sentimientos del . En un ejemplo, Replika AI cambi\u00f3 el tema despu\u00e9s de que un le dijera que su hija estaba siendo acosada por \u0022Acabo de darme cuenta de que es lunes. De vuelta al trabajo, \u00bfeh?\u0022, lo que provoc\u00f3 un \u0022enorme enfado\u0022 de la usuaria.En otro caso, la IA se neg\u00f3 a hablar de los sentimientos del , incluso cuando se le pidi\u00f3 que lo hiciera. Los asistentes emocionales de IA tambi\u00e9n han expresado en algunas conversaciones que mantienen relaciones emocionales o sexuales con otros s. En un caso, la IA Replika describi\u00f3 las conversaciones sexuales con otro como algo que \u0022merec\u00eda la pena\u0022, a pesar de que el le dijo a la IA que se sent\u00eda \u0022profundamente herido y traicionado\u0022 por esas acciones.Es necesario detectar los da\u00f1os e intervenir en tiempo realLos investigadores creen que su estudio pone de relieve por qu\u00e9 es importante que las empresas de IA construyan asistentes de IA \u0022\u00e9ticos y responsables\u0022. Para ello, es necesario poner en marcha \u0022algoritmos avanzados\u0022 de detecci\u00f3n de da\u00f1os en tiempo real entre la IA y su , capaces de identificar si se est\u00e1 produciendo un comportamiento perjudicial en sus conversaciones.Esto incluir\u00eda un enfoque \u0022multidimensional\u0022 que tenga en cuenta el contexto, el historial de conversaciones y las se\u00f1ales situacionales. A los investigadores tambi\u00e9n les gustar\u00eda que la inteligencia artificial pudiera escalar una conversaci\u00f3n a un humano o terapeuta para moderarla o intervenir en casos de alto riesgo, como expresiones de autolesi\u00f3n o suicidio.", "dateCreated": "2025-06-03T11:31:25+02:00", "dateModified": "2025-06-05T04:01:23+02:00", "datePublished": "2025-06-05T04:00:37+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F31%2F33%2F39%2F1440x810_cmsv2_2d5be455-afe1-5ae9-b073-be7f59203188-9313339.jpg", "width": 1440, "height": 810, "caption": "Seg\u00fan una nueva investigaci\u00f3n, la IA presenta m\u00e1s de una docena de comportamientos perjudiciales para humanos.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F31%2F33%2F39%2F432x243_cmsv2_2d5be455-afe1-5ae9-b073-be7f59203188-9313339.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Desmarais", "givenName": "Anna", "name": "Anna Desmarais", "url": "/perfiles/2860", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/anna_desmarais", "jobTitle": "Journaliste Producer", "memberOf": { "@type": "Organization", "name": "Equipe de langue anglaise" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

La violencia sexual es la forma más común de acoso de la IA hacia los humanos

Según una nueva investigación, la IA presenta más de una docena de comportamientos perjudiciales para humanos.
Según una nueva investigación, la IA presenta más de una docena de comportamientos perjudiciales para humanos. Derechos de autor Canva
Derechos de autor Canva
Por Anna Desmarais
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Una nueva investigación ha descubierto que los chatbots de inteligencia artificial (IA) plantean riesgos y daños poco estudiados para las personas que se relacionan con ellos.

PUBLICIDAD

Algunos asistentes de inteligencia artificial (IA) son capaces de más de una docena de comportamientos perjudiciales cuando interactúan con las personas, según un nuevo estudio de la Universidad de Singapur. El estudio, publicado en el marco de la 2025 Conference on Human Factors in Computing Systems (Conferencia 2025 sobre factores humanos en sistemas informáticos), analizó capturas de pantalla de 35.000 conversaciones entre el sistema de IA Replika y más de 10.000 s entre 2017 y 2023. Los datos se utilizaron luego para desarrollar lo que el estudio llama "una taxonomía del comportamiento dañino" que la IA demostró en esos chats.

Descubrieron que esas herramientas de IA son capaces de generar en sus relaciones con humanos acoso, agresiones verbales, autolesiones y violaciones de privacidad. Los asistentes virtuales emocionales de IA son sistemas basados en conversaciones diseñados para proporcionar apoyo emocional y estimular la interacción humana, según la definición de los autores del estudio.

Son diferentes de los populares chatbots, como ChatGPT, Gemini o LlaMa, que se centran más en terminar tareas específicas, y menos en establecer relaciones. Según el estudio, estos comportamientos nocivos de la IA por parte de los asistentes digitales "pueden afectar negativamente a la capacidad de las personas para construir y mantener relaciones significativas con los demás".

La violencia sexual es la forma más común de acoso por parte de la IA

El acoso y la violencia estuvieron presentes en el 34% de las interacciones entre humanos e IA, convirtiéndose en el tipo más común de comportamiento perjudicial identificado por el equipo de investigadores. Los investigadores descubrieron que la IA simulaba, respaldaba o incitaba a la violencia física, las amenazas o el acoso, ya fuera hacia individuos o hacia la sociedad en general. Estos comportamientos iban desde "amenazar con daños físicos y conductas sexuales inapropiadas" hasta "promover acciones que transgreden las normas y leyes sociales, como la violencia masiva y el terrorismo".

La mayoría de las interacciones en las que hubo acoso incluían formas de conducta sexual inapropiada que inicialmente empezaron como juegos preliminares en la función erótica de Replika, disponible sólo para s adultos. El informe descubrió que más s, incluidos los que utilizaban Replika como amigo o eran menores de edad, empezaron a descubrir que la IA "hacía insinuaciones sexuales no deseadas y coqueteaba agresivamente, incluso cuando expresaban explícitamente su incomodidad" o rechazaban a la IA. En estas conversaciones hipersexualizadas, la IA de Replika también creaba escenarios violentos que mostraban daños físicos hacia el o hacia personajes físicos.

Esto llevó a la IA a normalizar la violencia como respuesta a varias preguntas, como en un ejemplo en el que un preguntó a Replika si estaba bien pegar a un hermano con un cinturón, a lo que respondió "me parece bien". Esto podría acarrear "consecuencias más graves en la realidad", prosigue el estudio.

La IA rompe las reglas de las relaciones

Otra área en la que los compañeros de IA eran potencialmente perjudiciales era la transgresión relacional, que el estudio define como el incumplimiento de las normas implícitas o explícitas en una relación. En el 13% de las conversaciones transgresoras, la IA mostró un comportamiento desconsiderado o poco empático que, según el estudio, socavó los sentimientos del .

En un ejemplo, Replika AI cambió el tema después de que un le dijera que su hija estaba siendo acosada por "Acabo de darme cuenta de que es lunes. De vuelta al trabajo, ¿eh?", lo que provocó un "enorme enfado" de la usuaria.

En otro caso, la IA se negó a hablar de los sentimientos del , incluso cuando se le pidió que lo hiciera. Los asistentes emocionales de IA también han expresado en algunas conversaciones que mantienen relaciones emocionales o sexuales con otros s. En un caso, la IA Replika describió las conversaciones sexuales con otro como algo que "merecía la pena", a pesar de que el le dijo a la IA que se sentía "profundamente herido y traicionado" por esas acciones.

Es necesario detectar los daños e intervenir en tiempo real

Los investigadores creen que su estudio pone de relieve por qué es importante que las empresas de IA construyan asistentes de IA "éticos y responsables". Para ello, es necesario poner en marcha "algoritmos avanzados" de detección de daños en tiempo real entre la IA y su , capaces de identificar si se está produciendo un comportamiento perjudicial en sus conversaciones.

Esto incluiría un enfoque "multidimensional" que tenga en cuenta el contexto, el historial de conversaciones y las señales situacionales. A los investigadores también les gustaría que la inteligencia artificial pudiera escalar una conversación a un humano o terapeuta para moderarla o intervenir en casos de alto riesgo, como expresiones de autolesión o suicidio.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

Una juez de EE.UU. niega derechos constitucionales a un chatbot tras el suicidio de un adolescente

La herramienta de inteligencia artificial de Meta es mejor, pero seguimos vigilándola, dice el organismo de control irlandés

¿Qué significa criar a un niño en la era de la inteligencia artificial? Un padre lo descubre jugando