Cuando ChatGPT de OpenAI tomó al mundo por sorpresa el año pasado, tomó por sorpresa a muchos agentes poderosos tanto en Silicon Valley como en Washington, DC. El gobierno de EE. UU. ahora debería recibir advertencias anticipadas sobre futuros avances en IA que involucren grandes modelos de lenguaje, la tecnología detrás de ChatGPT.
La administración Biden se está preparando para utilizar el Ley de producción de defensa Obligar a las empresas de tecnología a informar al gobierno cuando entrenan un modelo de IA utilizando una cantidad significativa de potencia informática. La norma podría entrar en vigor la próxima semana.
El nuevo requisito le dará al gobierno de EE. UU. acceso a información clave sobre algunos de los proyectos más sensibles dentro de OpenAI, Google, Amazon y otras empresas tecnológicas que compiten en IA. Las empresas también deberán proporcionar información sobre las pruebas de seguridad que se realizan en sus nuevas creaciones de IA.
OpenAI se ha mostrado tímido acerca de cuánto trabajo se ha realizado en un sucesor de su oferta principal actual. GPT-4. El gobierno de EE. UU. puede ser el primero en saber cuándo comienzan realmente las pruebas de trabajo o seguridad en GPT-5. OpenAI no respondió de inmediato a una solicitud de comentarios.
“Estamos utilizando la Ley de Producción de Defensa, que es una autoridad que tenemos gracias al presidente, para realizar una encuesta que exige que las empresas compartan con nosotros cada vez que entrenan un nuevo modelo de lenguaje grande, y que compartan con nosotros los resultados: la seguridad. datos, para que podamos revisarlos”, dijo el viernes Gina Raimondo, secretaria de Comercio de Estados Unidos, en un evento celebrado en la Universidad de Stanford. Institución Hoover. No dijo cuándo entrará en vigor el requisito ni qué medidas podría tomar el gobierno con respecto a la información que recibió sobre proyectos de IA. Se espera que se anuncien más detalles la próxima semana.
Las nuevas reglas se están implementando como parte de una amplia orden ejecutiva de la Casa Blanca. emitido el pasado mes de octubre. El orden ejecutiva dio al Departamento de Comercio como fecha límite el 28 de enero para elaborar un plan mediante el cual las empresas estarían obligadas a informar a los funcionarios estadounidenses sobre los detalles sobre los nuevos y potentes modelos de IA en desarrollo. La orden decía que esos detalles deberían incluir la cantidad de potencia informática que se utiliza, información sobre la propiedad de los datos que se introducen en el modelo y detalles de las pruebas de seguridad.
La orden de octubre exige que se comience a trabajar para definir cuándo los modelos de IA deberían requerir informes al Departamento de Comercio, pero establece un límite inicial de 100 septillones (un millón de billones de billones o 1026) operaciones de punto flotante por segundo, o fracasos, y un nivel 1.000 veces menor para modelos de lenguaje grandes que trabajan con datos de secuenciación de ADN. Ni OpenAI ni Google han revelado cuánta potencia informática utilizaron para entrenar sus modelos más potentes, GPT-4 y Gemini, respectivamente, pero sí un servicio de investigación del Congreso. informe en la orden ejecutiva sugiere que 1026 flops está ligeramente por encima de lo que se utilizó para entrenar a GPT-4.
Raimondo también confirmó que el Departamento de Comercio pronto implementará otro requisito de la orden ejecutiva de octubre que exige que los proveedores de computación en la nube como Amazon, Microsoft y Google informen al gobierno cuando una empresa extranjera utilice sus recursos para entrenar un modelo lingüístico de gran tamaño. Los proyectos extranjeros deben informarse cuando crucen el mismo umbral inicial de 100 septillones de fracasos.