A Organização para Cooperação e Desenvolvimento Econômico (OCDE) anunciou, nesta segunda-feira, 22, um projeto-piloto para monitorar a aplicação de um código de conduta para organizações que desenvolvem sistemas avançados de Inteligência Artificial (IA).
O Processo de Hiroshima do G7, como o documento é chamado, foi apresentado em maio do ano passado. A fase piloto ficará disponível até o dia 6 de setembro deste ano. A intenção da organização com essa etapa é testar um mecanismo de monitoramento para o Código de Conduta, seguindo uma solicitação demandada pelos líderes do G7.
“Esta iniciativa testará uma estrutura de relatórios destinada a reunir informações sobre como as organizações que desenvolvem sistemas avançados de Inteligência Artificial (IA) se alinham com as Ações do Código de Conduta e é um marco significativo no âmbito do compromisso contínuo do G7 de promover um desenvolvimento, uma implementação e um uso seguro, protegido e confiável de sistemas avançados de IA”, diz a OCDE, em comunicado.
O projeto nasceu de contribuições dos principais desenvolvedores de IA dos países do G7 (Estados Unidos, Japão, Alemanha, Reino Unido, França, Itália e Canadá) e inclui um conjunto de perguntas baseadas nas 11 Ações do Código de Conduta. Segundo a OCDE, um quadro finalizado facilitará a transparência e a compatibilidade das medidas destinadas a atenuar os riscos dos sistemas avançados de IA, além de ajudar a identificar e divulgar boas práticas relacionadas à tecnologia.
A expectativa da OCDE é de que a versão final do código de conduta seja lançada ainda este ano. “Um quadro comum poderia melhorar a comparabilidade das informações disponíveis ao público e simplificar a elaboração de relatórios para organizações que operam em múltiplas jurisdições”, indica a organização.
Em maio deste ano, a OCDE apresentou uma nova versão dos seus Princípios de IA, abordando modelos mais avançados, como sistemas generativos, e com foco no combate à desinformação.