Opinión
Carlos Navarro Antolín
El Rey brilla al defender lo obvio
Con la integración de ChatGPT en el buscador Bing de Microsoft y la llegada de Bard, la inteligencia artificial generativa de Google, se ha democratizado esta tecnología, que ya ofrece resultados de búsqueda inmediatos y actualizados, a fecha de hoy mismo.
Esto se ha logrado mediante el análisis de las páginas indexadas por el motor de búsqueda, lo que ha hecho que muchos hayan comenzado a utilizar estas IA como un facilitador de búsqueda de información. Pero este uso plantea serios interrogantes en torno a la precisión y verificación de los datos obtenidos, y da pie a la necesidad de una entidad garante de esa información.
El aporte de datos de última hora, inmediatos, que dificultan contrastarlos adecuadamente, posibilitan sin duda la elaboración y difusión de bulos o fake news.
“Las inteligencias artificiales generativas, como Google Bard o ChatGPT, pueden ser magníficas herramientas para la producción de noticias falsas, por su habilidad para elaborar textos coherentes y convincentes, así como por la posibilidad de introducir sesgos por parte del usuario mediante prompts o instrucciones que incluyan patrones de respuesta determinada.”, afirma Alberto Pascual, director ejecutivo de Ingram Micro.
Para poder gestionar el riesgo de ser víctima de una información imprecisa o directamente de un intento de engaño, desde esta firma distribuidora de tecnología y soluciones IT recomiendan mitigar el riesgo de desinformación generada por la propia solución de la IA, aconsejando a los desarrolladores verificar y validar las fuentes de información, además de facilitar en cada respuesta la fuente de la que procede.
Así será el propio usuario el que, gracias a esa mayor información, pueda ejercitar su espíritu crítico valorando la veracidad y utilidad de la respuesta.
“Internet abrió una gran ventana y esperanza a la libertad de expresión, pero la difusión de bulos a través de ese espacio de libertad dinamita su credibilidad, cuestionando la veracidad de todo. El riesgo que supone para la democracia es enorme. Quienes tenemos un rol protagonista en el entorno tecnológico hemos de responsabilizarnos de su erradicación”, asegura Alberto Pascual.
A pesar de que la sociedad está mejorando su capacidad de reconocimiento de bulos, la información sesgada o simplemente falsa sigue suponiendo un riesgo latente. Esta conclusión la revela Statista, que en un reciente estudio señalaba que ocho de cada 10 estadounidenses (80%) declararon haber detectado noticias falsas sobre Covid-19.
Se destaca así la magnitud del problema y el alcance que puede tener en asuntos tan sensibles como la sanidad o la economía. De acuerdo con el informe de Statista acerca del impacto de las fake news, cuatro de cada 10 estadounidenses (38,2%) compartió por error una información falsa en 2020. Un riesgo que puede crecer con este tipo de soluciones inteligentes si no se verifica eficazmente la información.
“Los modelos de IA generativas, entrenados con ingentes cantidades de datos, y la capacidad de aprendizaje de diferentes patrones lingüísticos, generan discursos indistinguibles de los humanos, tal como anticipaba en los años 50 el conocido como Test de Turing. Si no se establecen los controles adecuados por parte de los desarrolladores, podrían incluir sesgos que conduzcan al usuario a la elaboración involuntaria de esos falsos contenidos, con una aparente verosimilitud incontestable”, asegura Alberto Pascual.
También te puede interesar
Lo último
Opinión
Carlos Navarro Antolín
El Rey brilla al defender lo obvio
Tribuna Económica
Joaquín Aurioles
Inventarios de diciembre (4). Desigualdad
Editorial
Rey, hombre de Estado y sentido común
No hay comentarios