Las empresas se comprometieron a compartir las mejores prácticas entre sí, así como con legisladores e investigadores.
Los modelos “Frontier” se refieren a plataformas incipientes de aprendizaje automático a gran escala que llevan la IA a nuevos niveles de sofisticación y también cuentan con capacidades que podrían resultar peligrosas para los humanos.
“Las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de garantizar que su uso sea seguro y permanezca bajo control humano“, dijo el presidente de Microsoft, Brad Smith, en un comunicado.
“Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que brinde beneficios a toda la humanidad”, resaltó.
El presidente estadounidense, Joe Biden, evocó los “enormes” riesgos y esperanzas generadas por la IA en una reunión en la Casa Blanca recientemente con representantes de las gigantes tecnológicas que se comprometieron a tomar precauciones para todo tipo de protección, desde ciberataques hasta fraudes a medida que crece el sector.
Junto a los principales representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, Biden dijo que las empresas se han comprometido a “guiar la innovación responsable” a medida que la IA se extiende cada vez más en la vida personal y empresarial.
Antes de la reunión, los siete gigantes de la IA se comprometieron con una serie de salvaguardas autorreguladas que, según la Casa Blanca, “subrayarían tres principios que deben ser fundamentales para el futuro de la IA: seguridad, protección y confianza”.
En su compromiso, las empresas acordaron desarrollar “mecanismos técnicos robustos”, como sistemas de marcas de agua, para garantizar que los usuarios sepan cuándo el contenido es de IA y no de humanos.