Los asesores de Rishi Sunak están tratando de llegar a un acuerdo entre los líderes mundiales sobre una declaración que advierte sobre los riesgos de la inteligencia artificial mientras ultiman la agenda para la cumbre sobre seguridad de la IA el próximo mes.
Le puede interesar: Partido Laborista lidera encuesta previa a conferencia anual en Liverpool
Los funcionarios de Downing Street han estado recorriendo el mundo hablando con sus homólogos desde China hasta la UE y Estados Unidos mientras trabajan para acordar las palabras que se utilizarán en un comunicado en la conferencia de dos días.
Pero es poco probable que acuerden una nueva organización internacional para examinar la IA de vanguardia, a pesar del interés del Reino Unido en darle al grupo de trabajo del gobierno sobre IA un papel global.
La cumbre de IA de Sunak producirá un comunicado sobre los riesgos de los modelos de IA, proporcionará una actualización sobre las directrices de seguridad mediadas por la Casa Blanca y finalizará con el debate de países con “ideas afines” sobre cómo las agencias de seguridad nacional pueden examinar las versiones más peligrosas de la tecnología.
La posibilidad de alguna forma de cooperación internacional sobre IA de vanguardia que pueda suponer una amenaza para la vida humana también se debatirá el último día de la cumbre, los días 1 y 2 de noviembre en Bletchley Park, según un borrador de la agenda al que tuvo acceso The Guardian.
El borrador se refiere al establecimiento de un “Instituto de Seguridad de la IA” para permitir el escrutinio relacionado con la seguridad nacional de los modelos de IA de frontera, el término para las versiones más avanzadas de la tecnología.
Sin embargo, la semana pasada el representante del primer ministro en la cumbre restó importancia al establecimiento de una organización de este tipo, aunque enfatizó que “la colaboración es clave” en la gestión de los riesgos fronterizos de la IA.
En una publicación la semana pasada en X, antes conocido como Twitter, Matt Clifford escribió: “No se trata de establecer una nueva institución internacional única. Nuestra opinión es que la mayoría de los países querrán desarrollar sus propias capacidades en este espacio, particularmente para evaluar modelos de control”.
Hasta ahora, el Reino Unido está liderando el proceso de IA fronteriza, habiendo establecido un grupo de trabajo de IA fronteriza bajo el mando del empresario tecnológico Ian Hogarth. El viceprimer ministro, Oliver Dowden, dijo el mes pasado que esperaba que el grupo de trabajo “pueda evolucionar hasta convertirse en una estructura institucional permanente, con una oferta internacional sobre seguridad de la IA”.
Clifford anunció la semana pasada que unas 100 personas asistirían a la cumbre, entre ministros de todo el mundo, directores ejecutivos de empresas, académicos y representantes de la sociedad civil internacional.
Según el borrador de la agenda, la cumbre incluye una discusión de tres vías el primer día basada en una discusión de los riesgos asociados con los modelos de frontera, una discusión sobre la mitigación de esos riesgos y una discusión sobre las oportunidades de esos modelos.
A esto le seguiría un breve comunicado que firmarían las delegaciones de los países y que expresaría un consenso sobre los riesgos y oportunidades de los modelos fronterizos.
Las empresas que participan en la cumbre, que se espera incluyan al desarrollador de ChatGPT OpenAI, Google y Microsoft, publicarán detalles sobre cómo están cumpliendo con los compromisos de seguridad de la IA acordados con la Casa Blanca en julio. Esos compromisos incluyen pruebas de seguridad externas de los modelos de IA antes de su lanzamiento y un escrutinio continuo de esos sistemas una vez que estén en funcionamiento.
Según un informe de político la semana pasada, la Casa Blanca está actualizando los compromisos voluntarios (con referencia a la seguridad, la ciberseguridad y cómo los sistemas de inteligencia artificial podrían usarse con fines de seguridad nacional) y podría hacer un anuncio este mes.
El segundo día contará con una reunión más pequeña de unas 20 personas, incluidos países con ideas afines, según el borrador de la agenda, con una conversación sobre dónde podría estar la IA dentro de cinco años y oportunidades positivas de IA vinculadas a los objetivos de desarrollo sostenible. Esto incluyó una discusión sobre un instituto de seguridad.
En su hilo sobre X, Clifford dijo que el Reino Unido sigue interesado en colaborar con otros países en materia de seguridad de la IA.
«La colaboración es clave para garantizar que podamos gestionar los riesgos de Frontier AI, con la sociedad civil, académicos, expertos técnicos y otros países», escribió.
Un portavoz del gobierno dijo: “Hemos sido muy claros en que estas discusiones implicarán la exploración de áreas para una posible colaboración en la investigación de la seguridad de la IA, incluidas la evaluación y los estándares.
Le puede interesar: Conflicto en Medio Oriente provoca volatilidad en mercados de materias primas
“Las discusiones internacionales sobre este trabajo ya están en marcha y están logrando buenos avances, incluida la discusión sobre cómo podemos colaborar entre países y empresas y con expertos técnicos para evaluar modelos de frontera. Hay muchas formas diferentes de hacerlo y esperamos convocar esta conversación en noviembre en la cumbre”.
