Las advertencias de la IA se han hecho más fuertes y urgentes a medida que se acerca 2024. El rápido avance de las herramientas de inteligencia artificial amenaza con amplificar la desinformación en las elecciones presidenciales del próximo año a una escala nunca antes vista.
La mayoría de los adultos en Estados Unidos piensan lo mismo, de acuerdo con una nueva encuesta de The Associated Press-NORC Center for Public Affairs Research. Y de la Escuela Harris de Políticas Públicas de la Universidad de Chicago.
La encuesta reveló que casi 6 de 10 adultos (58%) creen que las herramientas de IA —que pueden dirigirse a audiencias políticas. Producir mensajes persuasivos masivos y generar imágenes y videos muy realistas pero falsos en cuestión de segundos. Aumentarán la difusión de información falsa o engañosa durante las elecciones del próximo año.
En contraste, sólo el 6% cree que la IA reducirá la difusión de desinformación, mientras que un tercio dijo que no hará mucha diferencia.
La IA empeorará las cosas en 2024. Sólo el 30% de los adultos estadounidenses ha usado los chatbots o los generadores de imágenes de inteligencia artificial. Y menos de la mitad (46%) ha oído o leído al menos algo acerca de las herramientas de IA. Aun así, existe un amplio consenso en que los candidatos no deberían utilizar la IA.
A la pregunta de si sería bueno o malo que los candidatos presidenciales de 2024 usaran la inteligencia artificial de alguna manera. La gran mayoría dijo que sería malo que crearan contenidos falsos o engañosos para anuncios políticos (83%), que editaran o retocaran fotos o videos para anuncios políticos (el 66%). Que adaptaran los anuncios políticos a los votantes individuales (62%), y que respondieran a las preguntas de los votantes a través de chatbots (56%).

Estos sentimientos son respaldados por mayorías de republicanos y demócratas. Que coinciden en que sería negativo que los candidatos presidenciales crearan imágenes o videos falsos (85% de los republicanos, y 90% de los demócratas). O respondieran a las preguntas de los votantes con IA (56% de los republicanos, y 63% de los demócratas).
No obstante, la IA ya se ha utilizado en las primarias presidenciales republicanas. El Comité Nacional Republicano publicó en abril un anuncio generado completamente por IA que pretendía enseñar el futuro del país si el presidente Joe Biden era reelegido.
Usaba fotos falsas pero de apariencia realistas que mostraban comercios tapiados, patrullas militares con vehículos blindados en las calles, y oleadas de migrantes que sembraban el pánico. El anuncio decía en letra pequeña que había sido generado por IA.
Ron DeSantis, gobernador de Florida, también utilizó la IA en su campaña por la nominación del Partido Republicano. Promovió un anuncio que empleaba imágenes generadas por IA para que pareciera que el expresidente Donald Trump estaba abrazando al doctor Anthony Fauci. El experto en enfermedades infecciosas que supervisó la respuesta nacional ante la pandemia de COVID-19.
Never Back Down, un comité de promoción política que respalda a DeSantis. Usó una herramienta de IA para imitar la voz de Trump e hizo parecer que leía un post de las redes sociales. “Creo que deberían hacer campaña por sus méritos, no por su habilidad de infundir miedo en los corazones de los votantes”.
Los políticos que usan la tecnología para confundir pueden “agravar y empeorar el efecto que hasta los mensajes convencionales pueden causar”.
La Comisión de Elecciones Federales de Estados Unidos está considerando presentar una petición para regular los deepfakes generados por IA en los anuncios políticos de cara a las elecciones de 2024.
Por lo general algunas personas confian en la información obtenida a través de ChatGPT y probablemente lo utilicen para saber más de los candidatos presidenciales.
Según la encuesta, los estadounidenses consultan más a los medios de comunicación (46%), amigos y familiares (29%), y redes sociales (25%). Para informarse sobre las elecciones presidenciales que a los chatbots de inteligencia artificial.
La amplia mayoría de los estadounidenses son igualmente escépticos hacia la información que proporcionan los chatbots de IA.
Sólo el 5% dice confiar mucho en que la información sea verídica, mientras que el 33% dice confiar algo, de acuerdo con la encuesta.
La mayoría de los adultos (61%) dicen que no confían mucho o nada en que la información sea fiable.
Eso coincide con las advertencias de muchos especialistas en IA acerca del uso de chatbots para conseguir información.

Los grandes modelos lingüísticos de inteligencia artificial que suelen alimentar los chatbots funcionan seleccionando las palabras más plausibles para formar una oración. Lo que los hace buenos imitando estilos de escritura, pero también proclives a inventarse cosas.
Los adultos simpatizantes de los dos principales partidos políticos suelen estar abiertos a la regulación de la IA. Respondieron más positivamente que negativamente a diversas formas de prohibir o etiquetar el contenido generado por IA. Que podrían ser impuestas por las empresas de tecnología, el gobierno federal, las empresas de las redes sociales o los medios de comunicación.
Cerca de dos tercios están a favor de que el gobierno prohíba el contenido generado por IA que contenga imágenes falsas o engañosas en los anuncios políticos. Mientras que una cantidad similar quiere que las empresas tecnológicas etiqueten todo el contenido generado por IA en sus plataformas.
Biden puso en marcha el lunes algunas directrices federales para la inteligencia artificial al firmar un decreto para guiar el desarrollo de esa tecnología.
El decreto pide a la industria que desarrolle normas de seguridad y protección, y ordena al Departamento de Comercio. Emitir una guía para etiquetar y poner marcas de agua a los contenidos generados por IA.
Los estadounidenses consideran en gran medida que evitar la información falsa o engañosa generada por IA durante las elecciones presidenciales de 2024 es una responsabilidad compartida.
Aproximadamente 6 de cada 10 (63%) dicen que gran parte de la responsabilidad recae en las empresas tecnológicas que crean herramientas de IA. Pero cerca de la mitad atribuyen gran parte de ese deber a los medios de comunicación (53%), las empresas de redes sociales (52%) y el gobierno federal (49%).
Los demócratas son algo más proclives que los republicanos a decir que las empresas de redes sociales tienen mucha responsabilidad. Pero por lo general coinciden en el nivel de responsabilidad de las empresas tecnológicas, de los medios de comunicación y del gobierno federal.
Imagen : Metro
GIPHY App Key not set. Please check settings