En un esfuerzo significativo por mejorar la seguridad de la inteligencia artificial (IA), Amazon y Meta se han unido al Frontier Model Forum (FMF), colaborando junto a los miembros fundadores Anthropic, Google, Microsoft y OpenAI. Este anuncio subraya el compromiso compartido de estas empresas líderes en tecnología para abordar los desafíos y soluciones en la seguridad de los modelos de IA de frontera.
Como una organización sin ánimo de lucro y el único organismo respaldado por la industria dedicado a promover la seguridad de estos avanzados modelos de IA, el FMF está particularmente capacitado para hacer progresos reales en la identificación de desafíos comunes y soluciones prácticas. Los miembros del FMF comparten un fuerte deseo de garantizar la seguridad, tanto porque es lo correcto como porque una IA de frontera más segura será más útil y beneficiosa para la sociedad.
Amazon y Meta aportan su experiencia y conocimientos al FMF y se han comprometido a contribuir significativamente a su misión. Al participar en el desarrollo de mejores prácticas de seguridad y en el avance de la ciencia de la seguridad de la IA, cada empresa desempeñará un papel integral en los esfuerzos del FMF para promover el desarrollo y despliegue seguro de la IA de frontera. Al igual que todos los miembros del FMF, se les exigió demostrar que están activamente construyendo o desplegando modelos de IA de frontera, con un historial demostrado de incorporar mitigaciones de seguridad en su proceso de desarrollo.
Chris Meserole, Director Ejecutivo del Frontier Model Forum, comentó sobre los nuevos miembros que se unen a la organización: «El FMF tiene como objetivo garantizar que los sistemas de IA más avanzados sean lo más seguros posible. Estamos encantados de dar la bienvenida a Amazon y Meta como miembros y esperamos trabajar con cada uno para avanzar en la ciencia y la práctica de la seguridad de la IA.»
El intercambio de información es fundamental para la misión y operaciones del FMF. Las empresas miembros comparten lecciones aprendidas y colaboran para desarrollar entendimientos compartidos tanto sobre cómo la IA de frontera podría representar riesgos para la seguridad pública, como para evaluar y mitigar esos riesgos. El FMF busca aprovechar esos aprendizajes colectivos para informar a una amplia gama de partes interesadas, desde el público en general hasta los organismos de estándares de seguridad de la IA.
Nick Clegg, Presidente de Asuntos Globales en Meta, declaró: «Meta ha estado comprometida durante mucho tiempo con el crecimiento continuo y el desarrollo de un ecosistema de IA más seguro y abierto que prioriza la transparencia y la responsabilidad. El Frontier Model Forum nos permite continuar ese trabajo junto a socios de la industria, con un enfoque en identificar y compartir mejores prácticas para mantener seguros nuestros productos y modelos. Es este tipo de colaboración lo que nos ayudará a construir una IA que responda a las mayores necesidades de la sociedad, desde la atención médica hasta el cambio climático y más allá.»
David Zapolsky, Vicepresidente Senior de Política Pública Global y Asesor General en Amazon, comentó: «Amazon construye y despliega tecnologías de IA que son fiables, seguras y ofrecen experiencias en las que nuestros clientes confían. Nos enorgullece unirnos al Frontier Model Forum donde trabajaremos colectivamente con socios de la industria para avanzar en la ciencia, los estándares y las mejores prácticas que mejorarán la seguridad y protección de la IA. Seguimos dedicados a impulsar la innovación, al tiempo que implementamos las salvaguardas necesarias para proteger a los consumidores, incluyendo nuestro trabajo para integrar herramientas de IA responsable en nuestros productos y servicios.»
En los próximos meses, el FMF continuará reuniendo a líderes de la industria con la sociedad civil, investigadores académicos y legisladores para discutir un enfoque colectivo para identificar riesgos y mitigaciones en la IA de frontera.