La preocupante frase del creador de ChatGPT sobre el avance de la inteligencia artificial: “Estamos asustados”
Sam Altman, CEO de OpenIA, la empresa que creó la controvertida aplicación de inteligencia artificial ChatGPT, advirtió que este tipo de tecnología conlleva peligros reales para la sociedad. “Estamos un poco asustados por esto”, admitió en diálogo con ABC News, entrevista que fue replicada por The Guardian.
Almatn enfatizó en la necesidad de “tener cuidado” respecto de las posibles consecuencias que el uso de estas novedosas herramientas puedan tener en la humanidad. Entre otras cosas, señaló estar “particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala”.
Y señaló: “Se están mejorando en la escritura de código de computadora, por lo que estos podrían usarse para llevar a cabo ataques cibernéticos ofensivos”. Aun así, con la intención de traer calma, destacó que, de emplearse para el bien “sería el mayor invento que la humanidad haya desarrollado hasta ahora”.
La advertencia de Alman se produjo pocos después de que OpenAI lanzase la última versión de su modelo de lenguaje AI, denominada GPT-4. En menos de cuatro meses desde que se lanzó el modelo original, rememoró el medio británico, se convirtió en la aplicación de consumo de más rápido crecimiento en todo el mundo.
El empresario de 37 años también abordó un temor común de la ciudadanía: la posibilidad de que los seres humanos sean reemplazados por máquinas. “Por el momento, la inteligencia artificial es una herramienta que está en gran medida bajo el control humano”, indició al respecto.
Sumó sin embargo que “seguro existirán otras personas y compañías que no impongan los límites de seguridad que ponemos nosotros”. Y opinó: “Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo”.
Finalmente, abordó el fenómeno de “respuestas extrañas” provistas por el ChatGPT. “Lo que más trato de advertir a la gente es lo que llamamos el ‘problema de las alucinaciones. El modelo afirmará las cosas con confianza como si fueran hechos completamente inventados”, explicó”.
Y profundizó: “La forma correcta de pensar en los modelos que creamos es un motor de razonamiento, no una base de datos de hechos. No me memoriza, razonan”.