Companhias que estão liderando projetos de Inteligência Artificial (IA) no mundo, incluindo big techs, se comprometeram, nesta terça-feira, 21, a desenvolver a tecnologia com segurança e responsabilidade, além de demonstrar como fizeram para mitigar os riscos.
Em conferência em Seul, na Coreia do Sul, 16 empresas concordaram em seguir as diretrizes do documento chamado “Frontier AI Safety Commitments” (Compromissos de Segurança de IA Fronteiriça, em tradução livre). Assinaram o termo empresas como Microsoft, Google, Amazon, Meta, Samsung e IBM. Laboratórios de desenvolvimento de IA, tais como Anthropic, Mistral AI e Inflection AI, além da criadora do ChatGPT, OpenAI, também são signatários do documento.
Como parte do novo acordo, as empresas devem publicar relatórios no modelo de quadro de segurança para detalhar como examinam os riscos de utilização indevida de modelos avançados de IA. Também devem indicar como são capazes de mensurar e mitigar as ameaças.
Na conferência, as empresas também ressaltaram a importância da interoperabilidade entre as suas políticas de governança a respeito da tecnologia. As conversas também trataram sobre a elaboração de planos para uma rede de institutos de segurança e a celebração de um acordo com organismos internacionais, no sentido de abordar, com consenso, os riscos proporcionados pela IA.
Vale lembrar que os compromissos firmados dizem respeito apenas às aplicações consideradas IA de fronteira. Segundo o governo britânico, organizador do encontro ao lado da Coreia do Sul, trata-se de modelos de uso geral altamente capazes de executar uma ampla variedade de tarefas e igualar ou exceder as capacidades presentes em modelos mais avançados.
No que diz respeito à regulação da tecnologia no mundo, a União Europeia (UE) é a jurisdição mais avançada, com um projeto de lei já aprovado pelo Parlamento Europeu.