Inteligencia artificial: La opinión de Sam Altman sobre las alucinaciones.

Las alucinaciones son la principal debilidad de chatgpt.  

En un debate junto con Marc Benioff, CEO de Seaforce y Sam Altman, CEO de OpenAi dieron su opinión sobre las críticas que ha recibido específicamente los programas de la inteligencia artificial sobre el tema que ha generado curiosidad en los últimos meses: Las alucinaciones.  

Altman planteó que este tipo de alucinaciones (información presentada de manera coherente como si fueran hechos reales, pero con datos incorrectos, sesgados o directamente falsos) no deberían contarse como un problema, sino como parte de la “magia” de los sistemas de IA. Continuó explicando que el poder de IA generativa está en la capacidad de poder formular nuevas ideas y perspectivas.  

“Gran parte del valor de estos sistemas está fuertemente relacionado con el hecho de que alucinan. Son más un feature (característica) que un bug (error). Si quieres buscar algo en una base de datos, ya hay cosas útiles para hacerlo”, explicó el director ejecutivo de OpenAI. 

Sin embargo, Benioff residió en una opinión más estructurada y crítica, este término de “alucinaciones” lo llamo “mentiras”, cuestionando la información y la ética dentro de la divulgación de información falsa a través de estos modelos generativos de IA.  

¿Que son las ‘alucinaciones’ en la IA? 

Dentro de la Inteligencia artificial, las alucinaciones se refieren a los casos en los que la máquina genera información o contenidos que no se basan estrictamente en los datos sobre los que ha sido entrenada. (DiarioTI,2023).  

Este tema lleva ya tiempo siendo muy discutido en el ambiente de tech, e incluso ha causado muchos problemas legales a la misma empresa de OpenAI por falsa información. Hay tanto ventajas como consecuencias, una de ellas es la implementación de generación de ideas creativas ayudando a sus usuarios expandir nuevas propuestas e ideas y la otra es generando falsa información o desinformación entre comunidades como comentaba Benioff va de la mano con lo poco ético que podría generar el compartir información falsa. 

Facebook
Twitter
LinkedIn
Print

Leave a comment