Buscar
Cerrar este cuadro de búsqueda.

Tecnología

ChatGPT, una herramienta peligrosa para las fake news

Por Redacción Capital

ChatGPT puede utilizar fake news como fuentes para generar respuestas, dando como resultado una mayor difusión de información falsa

La inteligencia artificial se ha convertido en una de las tecnologías más influyentes y transformadoras del mundo en los últimos años y, sobre todo, dentro del entorno empresarial. Desde la automatización de procesos hasta la toma de decisiones más precisas, esta tecnología ha tomado gran importancia y ha demostrado su capacidad para mejorar significativamente la eficiencia, la productividad y la rentabilidad de las compañías. Todos los días son noticia y las empresas están tratando de ver cómo las utilizan. 

Un ejemplo de esta tecnología es ChatGPT que desde su lanzamiento en noviembre de 2022 ha sido difícil de ignorar. Con la capacidad de responder preguntas, resolver problemas y crear contenido, los chatbots de inteligencia artificial (IA) pueden brindar enormes beneficios a las empresas y los empleados. No obstante, a pesar de sus múltiples beneficios y servicios, programas como ChatGPT han suscitado mucho debate y controversia.

Estos avances están empezando a causar cierta preocupación entre la población acerca de la posibilidad de que esta combinación de algoritmos, cuyo propósito es crear máquinas que imitan la inteligencia humana, sea capaz de sustituir por completo algunos puestos de trabajo. Esto nos ha llevado a preguntarnos si Puede la inteligencia artificial llegar a reemplazar a las personas en los puestos de trabajo.

Goldman Sachs ha pronosticado que hasta 300 millones de empleos a tiempo completo podrían disminuir o perderse a causa de la IA y la tecnología de automatización. Sin embargo, no es tan sencillo como lo pintan algunas de las perspectivas más pesimistas.

Una peligrosa herramienta para las fake news

La ventaja y desventaja de ChatGPT es que no funciona como motor de búsqueda. El programa recopila información de una base de datos, pero en lugar de enviar el contenido tal cual a los motores de búsqueda, ChaGPT genera una respuesta a través de una serie de suposiciones basadas en lo que ha encontrado. Si bien las respuestas pueden parecer claras y precisas, algunas fuentes afirman un 99 % de precisión. Pero, ¿cómo sabes si la respuesta generada es correcta? ChatGPT aún no está en condiciones de comprender el 100 % de la complejidad del lenguaje y puede cometer errores.

Algunos de estos errores pueden ser detectados fácilmente, pero hay otros que no son tan obvios y que lleven a equivocación, sobre todo si el usuario no tiene conocimiento sobre el tema. El problema se encuentra es que esta información errónea después se publica en Internet y se utiliza en trabajos académicos, contribuyendo a la desinformación y a la generación de noticias falsas que constituyen el 62% de toda la información de Internet. 

Esta gran proporción de noticias falsas también es preocupante cuando se trata de que ChatGPT obtenga la información necesaria para responder a una pregunta. Si más de la mitad de la información de Internet es falsa, es muy probable que la IA utilice estas fuentes, dando como resultado la mayor difusión de estas fake news. ChatGPT, como cualquier modelo de lenguaje basado en inteligencia artificial, tiene la capacidad de generar información falsa si se le proporcionan ejemplos o instrucciones que la conduzcan en esa dirección. Sin embargo, es importante destacar que OpenAI y otros desarrolladores de tecnología de IA están trabajando constantemente para minimizar la generación de información falsa y desinformación.

Aunque se han realizado mejoras para mitigar la generación de información falsa, no se puede garantizar que un modelo de lenguaje, incluido ChatGPT, esté completamente libre de generar contenido incorrecto o engañoso en todas las situaciones. Es responsabilidad tanto de los desarrolladores como de los usuarios utilizar la tecnología de manera responsable y crítica, verificar la información y fuentes, y ser conscientes de las posibles limitaciones y sesgos de la IA.

Preocupación por la desinformación

La preocupación por la desinformación y la difusión de noticias falsas en Internet y en especial en redes sociales va en aumento. El 56,4% de los usuarios de Internet de todo el mundo manifiesta preocupación por no saber qué es cierto y qué no en el ámbito de las noticias en la red, según el informe Digital 2021. Algunas empresas, e incluso países, consideran la necesidad de prohibir el uso de ChatGPT.

No obstante, esto no sería necesario. Con una mayor capacidad para comprobar y contrastar la información, ChatGPT puede ser beneficioso para las empresas, especialmente en el entorno financiero actual, donde todos hacen más con menos. Esta IA puede reducir algunos de los desafíos y generar ideas creativas, ahorrando tiempo en tareas manuales y repetitivas.

Por lo tanto, ChatGPT no va a quitarle el trabajo a todo el mundo. Al final, el conocimiento, la experiencia y la imaginación siempre son útiles y necesarios para el producto final. Aunque la inteligencia artificial se puede entrenar a un alto nivel, sin la capacidad de pensar, es poco probable que los chatbots y otras tecnologías automatizadas puedan realizar tareas de alto nivel lo suficiente bien como para garantizar el reemplazo de los humanos.

Únete a nuestra Newsletter

A través de nuestra Newsletter con Capital te hacemos llegar lo más importante que ocurre en el mundo de la #economía, los #negocios, las #empresas, etc… Desde las últimas noticias hasta un resumen con toda la información más relevante al final del día, con toda comodidad.