OpenAI prohíbe a políticos usar su inteligencia artificial en campañas electorales

Este año son las presidenciales en Estados Unidos y hay elecciones nacionales en más de 50 países. Son procesos que involucran a casi la mitad de la población del planeta. Un calendario electoral intenso que, además, ocurrirá en pleno boom de la inteligencia artificial generativa. Por eso, OpenAI, creadora de ChatGPT, se ha adelantado a anunciar su estrategia para, según dijo, «prevenir abusos» y brindar transparencia.

Los gobiernos han dejado en claro su preocupación sobre la capacidad de manipulación y creación de contenido engañoso a través de las nuevas herramientas. De hecho, las campañas de desinformación fueron reconocidas como uno de los «riesgos catastróficos» sobre la inteligencia artificial en la Declaración de Bletchley, firmada por 28 países —entre ellos, Estados Unidos y China— en la cumbre celebrada en noviembre pasado.

Sirve como muestra el revuelo causado por las imágenes falsas del arresto de Donald Trump —eventual candidato este año—, publicadas en marzo del 2023. Por eso, OpenAI ha declarado que los políticos y sus campañas no podrán utilizar las herramientas de inteligencia artificial de la compañía. Al menos, no oficialmente.

«Nuestro enfoque es continuar nuestro trabajo de seguridad de la plataforma, elevando información electoral precisa, aplicando políticas mesuradas y mejorando la transparencia», anunció OpenAI en su blog. La compañía, socia de Microsoft, explicó que no permitirá la creación de chatbots que se hagan pasar por candidatos o instituciones gubernamentales. «No permitiremos que la gente cree aplicaciones para campañas políticas y lobby», remarcó.

 

Las otras medidas de OpenAI para las futuras elecciones
El Partido Republicano en Estados Unidos publicó el año pasado un vídeo generado por inteligencia artificial, cuando el presidente Joe Biden anunció que iría por la reelección. «¿Qué pasaría si el presidente más débil que hemos tenido fuera reelecto?», dice el material oficial publicado en YouTube. No está claro qué herramientas usaron, pero hay imágenes falsas de Biden, guerras y hasta de China invadiendo Taiwán.

«Trabajamos para anticipar y prevenir abusos relevantes, como deepfakes engañosos, operaciones de influencia a escala o chatbots que se hacen pasar por candidatos», resaltó OpenAI en su comunicado. Recordó que DALL-E, su herramienta de generación de imágenes, tiene barreras de seguridad para rechazar solicitudes sobre la creación de contenido sobre personas reales, como los políticos.

YouTube video
La compañía agregará ahora credenciales digitales establecidas por una coalición de empresas de inteligencia artificial. De esta forma, se codificarán los detalles sobre el origen de las imágenes creadas con DALL-E.

OpenAI, además, está probando una nueva herramienta que llamada «clasificador de procedencia». De esta forma, explicó, investigadores y periodistas podrán detectar en las próximas elecciones si una imagen fue generada por inteligencia artificial. Espera ponerla pronto a disposición de un primer grupo de evaluadores.

Sobre ChatGPT, dijo que seguirán integrando su plataforma con informes de noticias en tiempo real a nivel mundial, incluyendo enlaces y aclaraciones sobre la fuente. «La transparencia en torno al origen de la información y el equilibrio en las fuentes de noticias pueden ayudar a los votantes a evaluar mejor la información y decidir por sí mismos en qué pueden confiar», dice el comunicado.

CEO de OpenAI, Sam Altman, sobre el uso de la IA en las elecciones.

Contra abstencionistas
Así como intentará frenar el contenido engañoso, OpenAI dijo que no permitirá el desarrollo de aplicaciones que «disuadan a las personas de participar en procesos democráticos». Por ejemplo, que afirmen abiertamente que votar «no tiene sentido».

En Estados Unidos, la compañía generó una alianza con la Asociación Nacional de Secretarios de Estado, la organización no partidista de funcionarios públicos más antigua del país. En este sentido, ChatGPT dirigirá a los usuarios de este país a un sitio web autorizado sobre información de las elecciones en Estados Unidos cuando realicen preguntas sobre cómo votar o dudas parecidas. Si esto sale bien, podrían replicar el enfoque en otros países.

Sam Altman, CEO de OpenAI, había reconocido el año pasado que el uso de inteligencia en elecciones era un «área importante de preocupación». «Estoy nervioso por esto», dijo Altman en mayo del año pasado, en una audiencia ante senadores de Estados Unidos. Durante su intervención, abogó por regulaciones gubernamentales en este sentido.

Telenord.com

El Nordeste a tan solo un click

Servicios

  • Television
  • Internet
  • Publicidad

Grupo Telenord

  • Acerca De
  • Sostenibilidad
  • Contacto
  • Terminos de Servicio
  • Politicas de Privacidad