GPT-5, un mito… por ahora: Sam Altman de OpenAI niega su desarrollo

La inteligencia artificial (IA) es un tema candente en el ámbito tecnológico, y en el centro de la discusión se encuentra OpenAI, una empresa que ha sido pionera en el desarrollo de modelos de lenguaje basados en IA como GPT-4.

En este artículo, vamos a analizar lo que Sam Altman, CEO de OpenAI, ha dicho acerca del desarrollo de GPT-5 y cómo sus declaraciones afectan al debate sobre la seguridad de la IA. Además, abordaremos el problema de la falacia de los números de versión y cómo deberíamos centrarnos en las capacidades de estos sistemas para tener una comprensión más precisa de su alcance.

chatgpt5 openai
Sam Altman, CEO de OpenAI.

Sam Altman confirma que OpenAI no está trabajando en GPT-5

En un evento reciente en el MIT, Sam Altman fue cuestionado acerca de una carta abierta que circuló entre la comunidad tecnológica, en la que se solicitaba a laboratorios como OpenAI que detuvieran el desarrollo de sistemas de IA «más potentes que GPT-4».

La carta expresaba preocupaciones sobre la seguridad de futuros sistemas de IA, pero fue criticada por muchos en la industria, incluidos algunos de sus firmantes. Altman respondió a estas preocupaciones afirmando que OpenAI no está trabajando en el desarrollo de GPT-5 y que no lo hará durante algún tiempo.

La seguridad en el desarrollo de IA es una preocupación válida

A pesar de que OpenAI no esté trabajando en GPT-5, Altman enfatizó que la empresa sigue considerando las implicaciones de seguridad en el trabajo con GPT-4. De hecho, dijo que están trabajando en «otras cosas encima de GPT-4» que presentan problemas de seguridad importantes. Por lo tanto, aunque GPT-5 no esté en desarrollo, la preocupación por la seguridad de la IA sigue siendo un tema relevante en el debate actual.

La falacia de los números de versión en la IA

Las declaraciones de Altman ponen de manifiesto un problema importante en el debate sobre la seguridad de la IA: la dificultad de medir y seguir el progreso. La afirmación de que OpenAI no está trabajando en GPT-5 no es especialmente significativa, ya que puede dar lugar a confusiones debido a lo que podríamos llamar la «falacia de los números de versión».

Esta falacia radica en la idea de que los números de versión reflejan mejoras lineales y definidas en las capacidades de un sistema. En realidad, estos números pueden ser simplemente herramientas de marketing y no reflejar el verdadero progreso de un sistema de IA.

Enfoque en las capacidades, no en los números de versión

El enfoque en el debate sobre la seguridad de la IA debería estar en las capacidades de los sistemas y en cómo estas pueden cambiar con el tiempo. Altman mencionó que OpenAI está trabajando en expandir el potencial de GPT-4, y otras empresas también están desarrollando herramientas ambiciosas que permiten a los sistemas de IA actuar en nombre de los usuarios.

Incluso si los gobiernos del mundo lograran imponer una prohibición al desarrollo de nuevas tecnologías de IA, la sociedad ya enfrenta desafíos con los sistemas disponibles actualmente. Aunque GPT-5 no esté en desarrollo todavía, esto no significa que las preocupaciones sobre la seguridad de la IA deban ser ignoradas. En cambio, es fundamental entender cómo GPT-4 y otros sistemas de IA existentes están evolucionando y cómo pueden afectar nuestra vida diaria y la seguridad en general.

La importancia de un enfoque equilibrado en el debate sobre la IA

Las declaraciones de Altman y el debate en torno a la seguridad de la IA muestran la necesidad de abordar este tema con un enfoque equilibrado y basado en evidencia. Mientras que algunos pueden alarmarse ante la idea de GPT-5 y sus posibles implicaciones, otros pueden minimizar los riesgos asociados con el desarrollo de sistemas de IA. La clave está en analizar las capacidades reales de los sistemas de IA y cómo pueden cambiar a lo largo del tiempo, en lugar de centrarse en los números de versión y en afirmaciones infundadas o exageradas.

El papel de la industria y los gobiernos en la seguridad de la IA

Es esencial que la industria y los gobiernos trabajen juntos para abordar las preocupaciones sobre la seguridad de la IA. Esto implica no sólo investigar y desarrollar sistemas de IA más seguros, sino también establecer regulaciones y políticas públicas que garanticen la seguridad y la privacidad de los usuarios. La colaboración entre los diferentes actores del ecosistema tecnológico es clave para asegurar que la IA se desarrolle de manera responsable y sostenible.

Conclusión

Sam Altman, CEO de OpenAI, ha confirmado que su empresa no está trabajando en el desarrollo de GPT-5. Aunque esto puede parecer una buena noticia para aquellos preocupados por la seguridad de la IA, lo cierto es que el debate sobre la seguridad de la IA debe centrarse en las capacidades reales de los sistemas, no en los números de versión.

La sociedad ya enfrenta desafíos con los sistemas de IA disponibles, como GPT-4, y es importante abordar estas preocupaciones de manera equilibrada y basada en evidencia. Para garantizar un futuro seguro y sostenible para la IA, es necesario que la industria y los gobiernos trabajen juntos en la investigación, el desarrollo y la regulación de estos sistemas y sus aplicaciones.

Deja un comentario

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad