GPT-4 es el límite: expertos y figuras como Elon Musk piden pausar el desarrollo en IA para evitar riesgos en la sociedad

A medida que avanza el desarrollo en Inteligencia Artificial, también llegamos al límite que los expertos consideran seguro. Elon Musk, miembro fundador de OpenAI, creadores de ChatGPT, junto con otros expertos en IA, han lanzado un comunicado bastante alarmista que pone sobre la mesa cuáles serán los riesgos para la sociedad.
Se estima que, por el momento, GPT-4 es el último estándar seguro y la feroz carrera en desarrollo de IA en los laboratorios ha entrado en una fase fuera de control debido a la competencia en la que podría haber consecuencias irreversibles.
Los chats por IA “son un riesgo para la sociedad”
Todo avance tecnológico puede llegar a suponer un riesgo, pero los pronósticos que están teniendo algunos expertos en la materia resultan alarmantes. Hace unos días nos congratulábamos con GPT-4 y sus posibilidades de cara a su implementación en ChatGPT, pero parece que ahí está la barrera entre
En una carta abierta, Elon Musk y un grupo de expertos en Inteligencia Artificial y ejecutivos de la industria piden una pausa de seis meses en el desarrollo de sistemas más potentes que el recientemente lanzado GPT-4 de OpenAI: “Hacemos un llamamiento a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.
Es ante estos temores por lo que se solicita a todos los laboratorios de IA que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. De hecho, se urge tanto a que se produzca, que, si no se produce tal pausa a nivel privado en cada caso, consideran que los gobiernos deberían intervenir e instituir una moratoria.
La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.