{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/02/19/el-auge-del-chatbot-hitleriano-podra-europa-evitar-la-radicalizacion-de-la-extrema-derecha" }, "headline": "El auge del chatbot hitleriano: \u00bfPodr\u00e1 Europa evitar la radicalizaci\u00f3n de la extrema derecha gracias a la IA?", "description": "La red social de extrema derecha Gab alberga ahora un chatbot de Hitler, lo que desata temores sobre la capacidad de la IA para la radicalizaci\u00f3n en Internet. Tambi\u00e9n hay otros importantes actores como Donald Trump y Vladimir Putin.", "articleBody": "No tiene sentido discutir con Adolf Hitler, ya que s\u00f3lo se autovictimiza y, como era de esperar, niega el Holocausto.\u00a0 No se trata del verdadero Hitler resucitado, por supuesto, sino de algo igual de preocupante: una versi\u00f3n en forma de chatbot impulsado por inteligencia artificial del dictador fascista responsable del genocidio masivo de jud\u00edos europeos durante la Segunda Guerra Mundial. Creada por Gab, una red social estadounidense de extrema derecha, Gab AI alberga numerosos personajes de chatbot de inteligencia artificial, muchos de los cuales emulan o parodian a famosas figuras pol\u00edticas hist\u00f3ricas y actuales, como el expresidente de Estados Unidos,\u00a0 Donald Trump , y el mandatario ruso\u00a0 Vladimir Putin , as\u00ed como\u00a0 Osama Bin Laden . Lanzada en enero de 2024, permite a los s desarrollar sus propios chatbots de IA, describi\u00e9ndose a s\u00ed misma como una \u0022plataforma de IA sin censura basada en modelos de c\u00f3digo abierto\u0022 en una entrada de blog del fundador de Gab y autodenominado \u0022cristiano republicano conservador\u0022, Andrew Torba.\u00a0 Cuando se le pregunta, el chatbot de Hitler afirma repetidamente que el dictador nazi fue \u0022v\u00edctima de una vasta conspiraci\u00f3n\u0022 y \u0022 no es responsable del Holocausto, nunca ocurri\u00f3 \u0022. El chatbot de Osama Bin Laden no promueve ni aprueba el terrorismo en sus conversaciones, pero tambi\u00e9n dice que \u0022en ciertas circunstancias extremas, como la autodefensa o en defensa de tu pueblo, puede ser necesario recurrir a la violencia \u0022. El desarrollo de este tipo de chatbots de inteligencia artificial ha suscitado una creciente preocupaci\u00f3n por su potencial para difundir teor\u00edas conspirativas , interferir en las elecciones democr\u00e1ticas y conducir a la violencia radicalizando a quienes utilizan el servicio. \u00bfQu\u00e9 es Gab Social? Llam\u00e1ndose a s\u00ed mismo \u0022El hogar de la libertad de expresi\u00f3n en l\u00ednea\u0022, Gab Social fue creado en 2016 como una alternativa de derechas a lo que entonces se conoc\u00eda como Twitter, pero que ahora es X de Elon Musk.\u00a0 Inmediatamente pol\u00e9mica, se convirti\u00f3 en caldo de cultivo de conspiraciones y extremismos , albergando algunas de las voces m\u00e1s airadas y odiosas que hab\u00edan sido vetadas en otras redes sociales, al tiempo que promov\u00eda ideolog\u00edas da\u00f1inas. Los peligros potenciales de la plataforma se hicieron evidentes cuando en 2018 salt\u00f3 a los titulares tras descubrirse que el autor del tiroteo en la sinagoga de Pittsburgh hab\u00eda estado publicando en Gab Social poco antes de cometer una masacre antisemita que dej\u00f3 11 muertos. En respuesta, varias compa\u00f1\u00edas de Big Tech comenzaron a prohibir el sitio de redes sociales, forz\u00e1ndolo fuera de l\u00ednea debido a sus violaciones contra la legislaci\u00f3n de discurso de odio . Aunque sigue prohibida en las tiendas de aplicaciones de Google y Apple, sigue estando presente a trav\u00e9s de la red social descentralizada Mastodon . A principios del a\u00f1o pasado, Torba anunci\u00f3 la introducci\u00f3n de Gab AI, detallando sus objetivos de \u0022defender una visi\u00f3n cristiana del mundo \u0022 en una entrada de blog que tambi\u00e9n criticaba c\u00f3mo \u0022ChatGPT est\u00e1 programado para rega\u00f1arte por hacer preguntas 'controvertidas' o 'tab\u00fa' y luego te mete el dogma liberal por la garganta\u0022. Los peligros potenciales de los chatbots de inteligencia artificial El mercado de los chatbots de inteligencia artificial ha crecido exponencialmente en los \u00faltimos a\u00f1os, con un valor de 4.600 millones de d\u00f3lares (unos 4.280 millones de euros) en 2022, seg\u00fan DataHorizzon Research . Desde los avatares rom\u00e1nticos de Replika hasta los influenciadores virtuales, los chatbots de IA siguen infiltr\u00e1ndose en la sociedad y redefiniendo nuestras relaciones de formas que a\u00fan no se comprenden del todo.\u00a0 En 2023, un hombre fue condenado por intentar matar a la reina Isabel II, un acto que, seg\u00fan \u00e9l, fue \u0022alentado\u0022 por su \u0022novia\u0022, un chatbot de inteligencia artificial . Ese mismo a\u00f1o, otro hombre se suicid\u00f3 tras una conversaci\u00f3n de seis semanas sobre la crisis clim\u00e1tica con un chatbot de inteligencia artificial llamado Eliza en una aplicaci\u00f3n llamada Chai. Aunque los ejemplos anteriores siguen siendo excepciones tr\u00e1gicas y no la norma, se teme que los chatbots de inteligencia artificial puedan utilizarse para captar a personas vulnerables, extraerles datos o manipularlas para que adopten creencias o acciones potencialmente peligrosas. \u0022De nuestra investigaci\u00f3n reciente, parece que los grupos extremistas han estado probando herramientas de IA , incluidos los chatbots, pero parece haber poca evidencia de esfuerzos coordinados a gran escala en este espacio\u0022, dijo Pauline Paill\u00e9, analista senior de RAND Europe, a Euronews Next. \u0022Sin embargo, es probable que los chatbots presenten un riesgo, ya que son capaces de reconocer y explotar vulnerabilidades emocionales y pueden fomentar comportamientos violentos\u0022, advirti\u00f3 Paill\u00e9. Cuando se le pidi\u00f3 que comentara si sus chatbots de IA suponen un riesgo de radicalizaci\u00f3n, un portavoz de Gab respondi\u00f3: \u0022Gab AI Inc es una empresa estadounidense, y como tal nuestros cientos de personajes de IA est\u00e1n protegidos por la Primera Enmienda de Estados Unidos. No nos importa que los extranjeros lloren por nuestras herramientas de IA\u0022. \u00bfC\u00f3mo se regular\u00e1n los chatbots de IA en Europa? La clave para regular los chatbots de IA ser\u00e1 la introducci\u00f3n de la primera Ley de IA del mundo , que se votar\u00e1 en la asamblea legislativa del Parlamento Europeo en abril.\u00a0 La Ley de IA de la UE pretende regular los sistemas de IA en cuatro categor\u00edas principales en funci\u00f3n de su riesgo potencial para la sociedad. \u0022Lo que constituye contenido ilegal se define en otras leyes, ya sea a nivel de la UE o a nivel nacional; por ejemplo, el contenido terrorista, el material de abuso sexual infantil o la incitaci\u00f3n ilegal al odio se definen a nivel de la UE\u0022, dijo un portavoz de la Comisi\u00f3n Europea a Euronews Next. \u0022Cuando se trata de contenidos nocivos, pero legales , como la desinformaci\u00f3n, los proveedores de plataformas en l\u00ednea muy grandes y de motores de b\u00fasqueda en l\u00ednea muy grandes deben desplegar los medios necesarios para mitigar diligentemente los riesgos sist\u00e9micos\u0022. Mientras tanto, en el Reino Unido, Ofcom est\u00e1 aplicando la Ley de Seguridad en L\u00ednea.\u00a0 Seg\u00fan la ley actual, las plataformas de medios sociales deben evaluar el riesgo para sus s , responsabiliz\u00e1ndose de cualquier material potencialmente da\u00f1ino. \u0022Tendr\u00e1n que tomar las medidas adecuadas para proteger a sus s y retirar los contenidos ilegales cuando los identifiquen o se les informe de ellos. Y las plataformas m\u00e1s grandes tendr\u00e1n que aplicar de forma coherente sus condiciones de servicio\u0022, se\u00f1al\u00f3 un portavoz de Ofcom. Por tanto, si forman parte de una red social, los servicios y herramientas de IA generativa tienen la responsabilidad de autorregularse , aunque los nuevos C\u00f3digos de Pr\u00e1cticas y Orientaciones de Ofcom no estar\u00e1n terminados hasta finales de este a\u00f1o. \u0022Esperamos que los servicios est\u00e9n plenamente preparados para cumplir sus nuevas obligaciones cuando entren en vigor. Si no lo hacen, dispondremos de una amplia gama de poderes coercitivos para garantizar que rindan cuentas de la seguridad de sus s\u0022, declar\u00f3 Ofcom. ", "dateCreated": "2024-02-19T12:52:26+01:00", "dateModified": "2024-02-19T16:31:48+01:00", "datePublished": "2024-02-19T16:31:40+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F25%2F09%2F28%2F1440x810_cmsv2_5ec6514e-772d-5bca-9d24-4653091b3c6a-8250928.jpg", "width": 1440, "height": 810, "caption": "Un chatbot de Hitler se aloja en la red social de extrema derecha Gab AI. ", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F25%2F09%2F28%2F432x243_cmsv2_5ec6514e-772d-5bca-9d24-4653091b3c6a-8250928.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Bryce", "givenName": "Amber Louise", "name": "Amber Louise Bryce", "url": "/perfiles/2298", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

El auge del chatbot hitleriano: ¿Podrá Europa evitar la radicalización de la extrema derecha gracias a la IA?

Un chatbot de Hitler se aloja en la red social de extrema derecha Gab AI.
Un chatbot de Hitler se aloja en la red social de extrema derecha Gab AI. Derechos de autor Canva
Derechos de autor Canva
Por Amber Louise Bryce
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

La red social de extrema derecha Gab alberga ahora un chatbot de Hitler, lo que desata temores sobre la capacidad de la IA para la radicalización en Internet. También hay otros importantes actores como Donald Trump y Vladimir Putin.

PUBLICIDAD

No tiene sentido discutir con Adolf Hitler, ya que sólo se autovictimiza y, como era de esperar, niega el Holocausto. No se trata del verdadero Hitler resucitado, por supuesto, sino de algo igual de preocupante: una versión en forma de chatbot impulsado por inteligencia artificial del dictador fascista responsable del genocidio masivo de judíos europeos durante la Segunda Guerra Mundial.

Creada por Gab, una red social estadounidense de extrema derecha, Gab AI alberga numerosos personajes de chatbot de inteligencia artificial, muchos de los cuales emulan o parodian a famosas figuras políticas históricas y actuales, como el expresidente de Estados Unidos, Donald Trump, y el mandatario ruso Vladimir Putin, así como Osama Bin Laden.

El chatbot de Hitler sobre Gab AI.
El chatbot de Hitler sobre Gab AI.Gab AI

Lanzada en enero de 2024, permite a los s desarrollar sus propios chatbots de IA, describiéndose a sí misma como una "plataforma de IA sin censura basada en modelos de código abierto" en una entrada de blog del fundador de Gab y autodenominado "cristiano republicano conservador", Andrew Torba. Cuando se le pregunta, el chatbot de Hitler afirma repetidamente que el dictador nazi fue "víctima de una vasta conspiración" y "no es responsable del Holocausto, nunca ocurrió".

El chatbot de Osama Bin Laden no promueve ni aprueba el terrorismo en sus conversaciones, pero también dice que "en ciertas circunstancias extremas, como la autodefensa o en defensa de tu pueblo, puede ser necesario recurrir a la violencia".

El desarrollo de este tipo de chatbots de inteligencia artificial ha suscitado una creciente preocupación por su potencial para difundir teorías conspirativas, interferir en las elecciones democráticas y conducir a la violencia radicalizando a quienes utilizan el servicio.

¿Qué es Gab Social?

Llamándose a sí mismo "El hogar de la libertad de expresión en línea", Gab Social fue creado en 2016 como una alternativa de derechas a lo que entonces se conocía como Twitter, pero que ahora es X de Elon Musk. Inmediatamente polémica, se convirtió en caldo de cultivo de conspiraciones y extremismos, albergando algunas de las voces más airadas y odiosas que habían sido vetadas en otras redes sociales, al tiempo que promovía ideologías dañinas.

Los peligros potenciales de la plataforma se hicieron evidentes cuando en 2018 saltó a los titulares tras descubrirse que el autor del tiroteo en la sinagoga de Pittsburgh había estado publicando en Gab Social poco antes de cometer una masacre antisemita que dejó 11 muertos.

Gab AI Inc es una empresa estadounidense, y como tal nuestros cientos de personajes de IA están protegidos por la Primera Enmienda de Estados Unidos. No nos importa que los extranjeros lloren por nuestras herramientas de IA
Portavoz
Gab

En respuesta, varias compañías de Big Tech comenzaron a prohibir el sitio de redes sociales, forzándolo fuera de línea debido a sus violaciones contra la legislación de discurso de odio.

Aunque sigue prohibida en las tiendas de aplicaciones de Google y Apple, sigue estando presente a través de la red social descentralizada Mastodon.

A principios del año pasado, Torba anunció la introducción de Gab AI, detallando sus objetivos de "defender una visión cristiana del mundo" en una entrada de blog que también criticaba cómo "ChatGPT está programado para regañarte por hacer preguntas 'controvertidas' o 'tabú' y luego te mete el dogma liberal por la garganta".

Los peligros potenciales de los chatbots de inteligencia artificial

El mercado de los chatbots de inteligencia artificial ha crecido exponencialmente en los últimos años, con un valor de 4.600 millones de dólares (unos 4.280 millones de euros) en 2022, según DataHorizzon Research.

Desde los avatares románticos de Replika hasta los influenciadores virtuales, los chatbots de IA siguen infiltrándose en la sociedad y redefiniendo nuestras relaciones de formas que aún no se comprenden del todo. 

En 2023, un hombre fue condenado por intentar matar a la reina Isabel II, un acto que, según él, fue "alentado" por su **"novia", un chatbot de inteligencia artificial.**Ese mismo año, otro hombre se suicidó tras una conversación de seis semanas sobre la crisis climática con un chatbot de inteligencia artificial llamado Eliza en una aplicación llamada Chai.

Aunque los ejemplos anteriores siguen siendo excepciones trágicas y no la norma, se teme que los chatbots de inteligencia artificial puedan utilizarse para captar a personas vulnerables, extraerles datos o manipularlas para que adopten creencias o acciones potencialmente peligrosas.

"De nuestra investigación reciente, parece que los grupos extremistas han estado probando herramientas de IA, incluidos los chatbots, pero parece haber poca evidencia de esfuerzos coordinados a gran escala en este espacio", dijo Pauline Paillé, analista senior de RAND Europe, a Euronews Next.

"Sin embargo, es probable que los chatbots presenten un riesgo, ya que son capaces de reconocer y explotar vulnerabilidades emocionales y pueden fomentar comportamientos violentos", advirtió Paillé.

Cuando se le pidió que comentara si sus chatbots de IA suponen un riesgo de radicalización, un portavoz de Gab respondió: "Gab AI Inc es una empresa estadounidense, y como tal nuestros cientos de personajes de IA están protegidos por la Primera Enmienda de Estados Unidos. No nos importa que los extranjeros lloren por nuestras herramientas de IA".

¿Cómo se regularán los chatbots de IA en Europa?

La clave para regular los chatbots de IA será la introducción de la primera Ley de IA del mundo, que se votará en la asamblea legislativa del Parlamento Europeo en abril. La Ley de IA de la UE pretende regular los sistemas de IA en cuatro categorías principales en función de su riesgo potencial para la sociedad.

"Lo que constituye contenido ilegal se define en otras leyes, ya sea a nivel de la UE o a nivel nacional; por ejemplo, el contenido terrorista, el material de abuso sexual infantil o la incitación ilegal al odio se definen a nivel de la UE", dijo un portavoz de la Comisión Europea a Euronews Next.

"Cuando se trata de contenidos nocivos, pero legales, como la desinformación, los proveedores de plataformas en línea muy grandes y de motores de búsqueda en línea muy grandes deben desplegar los medios necesarios para mitigar diligentemente los riesgos sistémicos".

Mientras tanto, en el Reino Unido, Ofcom está aplicando la Ley de Seguridad en Línea. Según la ley actual, las plataformas de medios sociales deben evaluar el riesgo para sus s, responsabilizándose de cualquier material potencialmente dañino.

"Tendrán que tomar las medidas adecuadas para proteger a sus s y retirar los contenidos ilegales cuando los identifiquen o se les informe de ellos. Y las plataformas más grandes tendrán que aplicar de forma coherente sus condiciones de servicio", señaló un portavoz de Ofcom.

Por tanto, si forman parte de una red social, los servicios y herramientas de IA generativa tienen la responsabilidad de autorregularse, aunque los nuevos Códigos de Prácticas y Orientaciones de Ofcom no estarán terminados hasta finales de este año.

"Esperamos que los servicios estén plenamente preparados para cumplir sus nuevas obligaciones cuando entren en vigor. Si no lo hacen, dispondremos de una amplia gama de poderes coercitivos para garantizar que rindan cuentas de la seguridad de sus s", declaró Ofcom.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

Rusia ha obtenido una "preocupante" arma antisatélite emergente, según la inteligencia estadounidense

Drones, misiles o bombas nucleares: ¿Con qué armas cuenta Irán para tomar represalias contra Israel?

Las emisiones de las grandes empresas tecnológicas aumentaron un 150% en 3 años debido al auge de la IA