As principais empresas de inteligência artificial do mundo, incluindo OpenAI, Google DeepMind e Anthropic, anunciaram novos compromissos de segurança durante a cúpula de IA em Seul. Essas medidas visam aumentar a transparência e a responsabilidade no desenvolvimento de IA.
Publicação de Avaliações de Riscos
As empresas concordaram em divulgar os métodos que utilizam para identificar e avaliar riscos em suas tecnologias de IA. Isso garante que os processos de avaliação de segurança sejam conhecidos e possam ser monitorados.
Identificação de Riscos Intoleráveis
Serão especificados os riscos considerados inaceitáveis, como o potencial uso mal-intencionado de IA para criar deepfakes ou disseminar desinformação. As empresas se comprometeram a não desenvolver ou usar sistemas de IA que não possam mitigar esses riscos.
Investimento em Segurança e Pesquisa
Haverá um aumento no investimento em segurança cibernética e na pesquisa sobre os impactos sociais da IA, para garantir que essas tecnologias sejam desenvolvidas de maneira responsável e segura.
O primeiro-ministro do Reino Unido, Rishi Sunak, afirmou que esses compromissos estabelecem um precedente para padrões globais de segurança em IA, essenciais para desbloquear os benefícios dessa tecnologia transformadora.
A cúpula de Seul segue o encontro realizado no Bletchley Park, no Reino Unido, em novembro de 2023. As discussões continuarão em uma cúpula na França em 2025, com o objetivo de transformar declarações em planos de ação concretos, abordando impactos sociais como deslocamento de trabalhadores e a divisão digital.
Via: O Antagonista