El multimillonario Elon Musk y un grupo de expertos han instado a poner pausa en el desarrollo de sistemas avanzados de inteligencia artificial (IA), como GPT-4 de OpenAI , para garantizar su seguridad y controlar los riesgos potenciales. Más de 1,000 personas, incluidos Musk y el cofundador de Apple, Steve Wozniak, han firmado una carta abierta en la que piden detener el desarrollo de IA de gran escala hasta que se pueda asegurar su impacto positivo y manejar sus riesgos.
Musk ha sido un inversor en OpenAI y su empresa Tesla utiliza IA en su tecnología de conducción autónoma. La carta fue organizada por el Future of Life Institute, una organización financiada por Musk, y fue firmada por críticos y competidores de OpenAI, como Emad Mostaque, CEO de Stability AI.
El experto en IA Yoshua Bengio también firmó la carta, advirtiendo que la sociedad no está preparada para estas poderosas herramientas y sus posibles usos indebidos. Bengio sugiere que se reduzca la velocidad en el desarrollo de IA y que se lleve a cabo un debate global, similar a lo que se ha hecho con la energía nuclear y las armas nucleares.
‘Digno de confianza y leal’
La carta abierta cita un blog del fundador de OpenAI, Sam Altman, quien sugirió que podría ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros. Los autores de la carta concuerdan y piden a todos los laboratorios de IA que pausen el entrenamiento de sistemas más potentes que GPT-4 durante al menos seis meses.
Solicitan la intervención de los gobiernos para imponer una moratoria si las empresas no llegan a un acuerdo. Los seis meses deben utilizarse para desarrollar protocolos de seguridad, sistemas de gobernanza de IA y reorientar la investigación hacia sistemas de IA más precisos, seguros, confiables y leales.
La carta no detalla específicamente los peligros presentados por GPT-4. Sin embargo, investigadores como Gary Marcus, de la Universidad de Nueva York y firmante de la carta, han argumentado que los chatbots pueden ser grandes mentirosos y potenciales superpropagadores de desinformación.
Por otro lado, el autor Cory Doctorow compara la industria de la IA con un esquema de «bomba y descarga», argumentando que tanto el potencial como las amenazas de los sistemas de IA se han exagerado en gran medida.