En un mundo donde las noticias falsas se difunden a una velocidad vertiginosa, cada vez es más difícil distinguir los hechos de la ficción. Y a pesar de las incontables horas de trabajo y millones de dólares invertidos en proyectos y políticas encaminadas a promover el periodismo veraz, la situación se mantiene. lejos de ser ideal—y eso fue antes de que se pudiera utilizar la inteligencia artificial para crear imágenes falsas de aspecto realista.
De hecho, Las noticias falsas se consideran libertad de expresión, según la Supervisor Europeo de Protección de Datosy luchar contra la desinformación es casi imposible porque “la gran cantidad de noticias falsas difundidas en las redes sociales no se puede manejar manualmente”.
Afortunadamente, y apropiadamente, la inteligencia artificial también puede desempeñar un papel en el desenmascaramiento de noticias falsas, sin importar cómo se generen. Este poder proviene principalmente del crecimiento explosivo de grandes modelos de lenguaje como GPT-4.
Por ejemplo, los desarrolladores anónimos han lanzado Verificador de datos de IA, una herramienta creada para usar IA para verificar información. Una vez que un usuario ingresa un reclamo en el verificador, la plataforma busca fuentes confiables en Internet, analiza los datos y compara esa información con el reclamo proporcionado. Luego determina si la afirmación o el hecho es verdadero, falso o poco claro y proporciona fuentes para respaldar sus conclusiones.
descifrar probó la funcionalidad de la herramienta y demostró un nivel de precisión del 100% al verificar noticias recientes, eventos históricos e información diversa. Sin embargo, cuando se trataba de consultar noticias sobre los precios de bienes, servicios y vehículos de inversión, la herramienta tropezaba y comenzaba a confundir las noticias de predicción con el comportamiento real de los precios.
Otras herramientas de IA apuntan al mismo problema: Google Herramientas de verificación de hechos, Hecho completoy HechoInsecto se encuentran entre los más renombrados. Incluso hay alternativas descentralizadas como Protocolo de hechos y el ya desaparecido Civil. Pero una alternativa está comenzando a destacarse entre la multitud debido a su facilidad de uso y precisión: el navegador y motor de búsqueda impulsado por IA de Microsoft.
El gigante del software ha integrado GPT-4 en su navegador Edge, brindando a los usuarios un bot de IA al alcance de su mano. A diferencia de ChatGPT (que no puede buscar información en la web y tiene un conjunto de datos fijo de antes de 2021), el nuevo Bing con GPT-4 puede navegar por la web, por lo que puede proporcionar respuestas precisas y actualizadas al instante, proporcionando enlaces a fuentes confiables para cualquier pregunta, incluida la confirmación o desacreditación de un hecho dudoso.
Para verificar noticias falsas usando GPT-4 con Bing, simplemente descargue la última versión del navegador Edge y haga clic en el ícono del logotipo de Bing en la esquina superior derecha. Se abrirá un menú de barra lateral con tres opciones. Luego, selecciona la opción Chat, pregunta lo que quieras saber y la IA de Microsoft te dará la respuesta.
Los usuarios también pueden hacer clic en la opción Insights, y la IA impulsada por GPT de Microsoft proporcionará información relevante sobre el sitio web que publica las noticias, incluidos los temas cubiertos, los temas relevantes, el tráfico de la página y la aclaración de las críticas comunes. A diferencia de AI Fact Checker Tool, no proporciona una respuesta concreta que diga “esto es cierto” o “esto es falso”, pero brinda suficiente información para llegar a una conclusión.
La otra cara de la moneda
Si bien la IA puede rastrear y comparar múltiples fuentes de información en cuestión de segundos, también existen riesgos asociados con el uso de algoritmos de IA para verificar noticias. Algunas deficiencias de la IA incluyen:
Entrenamiento en modelos defectuosos: Si un algoritmo de IA se entrena con datos inexactos o sesgados, su rendimiento podría verse afectado negativamente y producir resultados incorrectos. Garantizar que los datos utilizados para entrenar los algoritmos de IA sean precisos y representativos es crucial.
Alucinaciones de IA: Los algoritmos de IA pueden generar información que parece plausible pero que no tiene una base real. Estas alucinaciones pueden llevar a conclusiones falsas al verificar noticias.
Vulnerabilidad a la manipulación: Los algoritmos de IA pueden ser susceptibles a ataques y manipulaciones, como inyectar datos falsos o sesgados en su proceso de aprendizaje. Estos son algo equivalentes a un ataque del 51%, pero en un contexto de IA. Se utiliza un mayor número de refuerzos incorrectos, lo que hace que el modelo asuma que los datos incorrectos son verdaderos.
Los sistemas de inteligencia artificial como ChatGPT son susceptibles a ataques de envenenamiento. Estos tipos de ataques son relevantes cuando los actores de amenazas atacan conjuntos de datos de entrenamiento, una cadena de prueba eliminará tales escenarios.
— Gummo (@GummoXXX) 23 de marzo de 2023
Esto es especialmente preocupante en los modelos que se basan en la interacción humana o en los modelos que están sujetos a una entidad central que los gestiona… wEsto es exactamente lo que sucede con OpenAI y ChatGPT.