Preocupante frase del creador de ChatGPT: “Estamos asustados”

Durante una entrevista, el CEO de la empresa que creó la aplicación dijo que hay que “tener cuidado” con los usos que se le da a la IA; anticipó también posibles escenarios que podrían darse en un futuro cercano

Sam Altman, CEO de OpenIA, la empresa que creó la controvertida aplicación de inteligencia artificial ChatGPT, advirtió que este tipo de tecnología conlleva peligros reales para la sociedad. “Estamos un poco asustados por esto”, admitió en diálogo con ABC News, entrevista que fue replicada por The Guardian.

Almatn enfatizó en la necesidad de “tener cuidado” respecto de las posibles consecuencias que el uso de estas novedosas herramientas puedan tener en la humanidad. Entre otras cosas, señaló estar “particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala”.

Y señaló: “Se están mejorando en la escritura de código de computadora, por lo que estos podrían usarse para llevar a cabo ataques cibernéticos ofensivos”. Aun así, con la intención de traer calma, destacó que, de emplearse para el bien “sería el mayor invento que la humanidad haya desarrollado hasta ahora”.

La advertencia de Alman se produjo pocos después de que OpenAI lanzase la última versión de su modelo de lenguaje AI, denominada GPT-4. En menos de cuatro meses desde que se lanzó el modelo original, rememoró el medio británico, se convirtió en la aplicación de consumo de más rápido crecimiento en todo el mundo.

El empresario de 37 años también abordó un temor común de la ciudadanía: la posibilidad de que los seres humanos sean reemplazados por máquinas. “Por el momento, la inteligencia artificial es una herramienta que está en gran medida bajo el control humano”, indició al respecto.

Sumó sin embargo que “seguro existirán otras personas y compañías que no impongan los límites de seguridad que ponemos nosotros”. Y opinó: “Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo”.

Finalmente, abordó el fenómeno de “respuestas extrañas” provistas por el ChatGPT. “Lo que más trato de advertir a la gente es lo que llamamos el ‘problema de las alucinaciones. El modelo afirmará las cosas con confianza como si fueran hechos completamente inventados”, explicó”.

Y profundizó: “La forma correcta de pensar en los modelos que creamos es un motor de razonamiento, no una base de datos de hechos. No me memoriza, razonan”.

Las posturas de Elon Musk y Bill Gates
En los últimos días, tanto Musk como Gates se expresaron sobre los peligros -tanto actuales como a futuro- de la inteligencia artificial. El flamante CEO de Twitter advirtió que esta combinación de algoritmos que parece tener vida propia es “más peligrosa que un arma nuclear”.

Se quejó también de la falta de supervisión sobre la IA. “¿Qué nos quedará por hacer a los humanos?”, lanzó Musk a través de la red social la semana pasada. 

Mientras tanto, Bill Gates sostuvo en su sitio web Gates Notes que, junto con gran cantidad de usos benignos que pueden hacerse de la inteligencia artificial, también hay “riesgos y preocupaciones”. “Existe la amenaza que representan los humanos armados con IA”, resalta el magnate y confundador de Microsoft.

“Luego existe la posibilidad de que las IA se salgan de control. ¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes a los nuestros o simplemente dejar de preocuparse por nosotros? Posiblemente”, dijo Gates sin reparos.

Tras la alarmante afirmación, indició que este último problema “no es más urgente hoy que antes de los desarrollos de IA de los últimos meses”. “¿Qué sucede si la inteligencia artificial entra en conflicto con los intereses de la humanidad? Esta preguntas se volverán más apremiantes con el tiempo”, sostuvo.

“La inteligencia artificial todavía no controla el mundo físico y no puede establecer sus propios objetivos, aun cuando el ChatGPT declaró en conversaciones con The New York Times que quería convertirse en un ser humano. Es una mirada fascinante pero no un indicador de independencia significativa”, concluyó.

LA NACION

Te puede interesar

Científicos argentinos crean videojuegos para prevenir el bullying y el grooming

Se trata de videojuegos y simulaciones virtuales para prevenir estas problemáticas en la infancia y adolescencia.

Sorprendente anuncio: científicos de la NASA encontraron posibles rastros de vida en Marte

Anunciaron el hallazgo de rastros químicos y geológicos que podrían deberse a la presencia de vida, aunque reconocen que no pueden confirmarlo hasta que esas muestras vuelvan a la Tierra.

Cuáles son las diferencias entre el iPhone 17, iPhone Air, iPhone 17 Pro y Pro Max

Apple presentó cuatro modelos con un rediseño completo de su catálogo, donde destaca la llegada del nuevo iPhone Air

Zuckerberg quiere crear una "súper IA"

El CEO de Meta está destinando cientos de millones de dólares para construir un equipo para perseguir lo que él llama "superinteligencia" de IA. Esta tecnología podría hacer cualquier cosa que el cerebro humano pueda hacer.

Se filtró el iPhone 17 Pro Max: el rediseño "más audaz" de Apple

Las imágenes divulgadas revelan un cambio de diseño que llegaría en la serie, que genera críticas y burlas en la previa.

La hora real: cuál debería ser el huso horario en Argentina según un experto en ritmos biológicos

Tras la media sanción de Diputados al cambio del huso horario, el especialista en ritmos biológicos, Mario Guido, explicó cuál es el tiempo ideal que debe tener el país a nivel científico y por qué.