- O AI Basic Act sul-coreano entrou em vigor na semana passada, impondo regras para serviços de IA e exigindo rotulagem de conteúdos gerados por IA.
- Entre as medidas, há marcas d’água invisíveis para outputs artificiais e rótulos visíveis para deepfakes realistas; sistemas de alto impacto precisam de avaliações de risco e documentação de decisões.
- Modelos extremamente poderosos devem apresentar relatórios de segurança, mas o patamar é tão alto que autoridades reconhecem que nenhum modelo mundial o atende atualmente.
- Empresas de tecnologia e grupos da sociedade civil criticaram a lei: startups dizem que ela vai longe demais, enquanto organizações civis afirmam que não protege suficientemente as pessoas.
- A Coreia do Sul busca ser uma das três maiores potências em IA, adotando um modelo mais flexível e baseado em princípios, com o governo ressaltando que a lei foca mais em promover a indústria do que restringi-la.
South Korea lançou o que é apresentado como o conjunto mais abrangente de leis de IA já criado, para regular serviços de IA e conteúdos gerados por máquinas. Aprovada recentemente, a legislação já enfrenta críticas de startups e da sociedade civil.
As regras incluem marcações digitais invisíveis em saídas artificiais, como desenhos e obras, e rótulos visíveis para deepfakes realistas. Além disso, sistemas de alto impacto devem passar por avaliações de risco e documentação de decisões.
Quem está envolvido envolve governos, empresas de tecnologia, startups locais e organizações civis. O objetivo é criar um ecossistema de IA seguro, ao mesmo tempo em que incentiva a indústria tecnológica.
Quando e onde: a lei entrou em vigor na semana passada, na Coreia do Sul, com possibilidade de um período de graça de pelo menos um ano antes de quaisquer multas. O país busca se tornar modelo para outras nações.
Por quê: o governo afirma que a norma equilibra promoção da indústria e proteção de cidadãos, mas críticos apontam falhas na proteção de pessoas afetadas por IA e na regulamentação de modelos estrangeiros.
Desafios e críticas
Startups locais dizem que as regras vão além do necessário, impondo custos e complexidade. Uma pesquisa de dezembro mostra que 98% das startups não estavam preparadas para cumprir as exigências.
Grupos de civil sociedade avaliam que a legislação não protege adequadamente indivíduos de riscos de IA. Eles apontam lacunas, como exceções para intervenção humana e ausência de proibições específicas.
Estrutura regulatória e impactos
Empresas devem autoavaliar se seus sistemas são de alto impacto. A determinação é complexa e pode gerar insegurança jurídica. Criticamente, há ressalvas sobre desequilíbrio competitivo para empresas nacionais.
Especialistas afirmam que a Coreia adotou um caminho diferente de EUA, UE e China, buscando flexibilidade e orientação por princípios. O objetivo é promover inovação com regras claras.
Entre na conversa da comunidade