Um robô humanóide lendo um livro com a bandeira da UE e a palavra "AI" na página.
Explore os regulamentos da Lei de AI da UE e seu papel na formação do futuro da inteligência artificial.

Resumo da Lei AI da UE: Principais Pontos e Implicações


AutorDorukan Yücedağ
Data2025-02-10
Tempo de leitura5 Ata

A Lei AI da UE é uma extensa peça legislativa. Para qualquer líder empresarial, começar com um resumo da Lei AI da UE é um bom lugar para entender seus traços gerais. Também ajuda a entender seus objetivos e os regulamentos que estabelece para o uso ético de AI.

AI foi uma das inovações tecnológicas mais revolucionárias. Ele oferece um imenso potencial para simplificar nossas vidas de várias maneiras. No entanto, também vem com sua parcela de implicações éticas e legais. Isso se deve aos vários casos de uso indevido de AI.

A Lei AI da UE lista AI regulamentos para empresas. O objetivo é estabelecer um conjunto de regras que coibam o uso indevido dessa tecnologia.

Este guia cobre todos os pontos-chave do ato e suas várias implicações. Isso ajudará você a tomar uma decisão informada sobre como você usa AI. Também abrange o Tor.app, que oferece um conjunto abrangente de ferramentas de negócios que cumprem totalmente esta lei. Eles oferecem as melhores soluções de fluxo de trabalho sem comprometer a privacidade e a segurança dos dados.

O que é a Lei AI da UE e por que foi introduzida?

A Lei AI (Regulamento (UE) 2024/1689) fornece orientações para AI desenvolvedores e implantadores. Seu foco está no uso ético da tecnologia e lista suas obrigações e requisitos com usos específicos de AI.

De acordo com um relatório no site oficial do Parlamento Europeu, o regulamento foi endossado pelos eurodeputados com 523 votos a favor, 46 contra e 49 abstenções.

Referência: Parlamento Europeu

O cumprimento da Lei AI da UE também visa reduzir os encargos financeiros e administrativos, especialmente para as pequenas e médias empresas. O objetivo geral é garantir os direitos fundamentais das pessoas e das empresas no que diz respeito à utilização de AI.

Para AI governança sob regulamentação da UE, a lei também proíbe usos específicos de AI que implantam técnicas manipuladoras ou enganosas ou praticam pontuação social. Também proíbe a exploração de vulnerabilidades de certos grupos sociais e perfis individuais.

O AI Act Explorer no site oficial da Lei de Inteligência Artificial da UE oferece uma análise completa da legislação, para que você também possa consultar qualquer seção relevante.

Objetivos da Lei AI da UE para o Uso Responsável AI

A UE pretende assegurar um equilíbrio entre a inovação e os riscos emergentes da AI. Os objetivos da lei incluem:

  1. Garantir que os sistemas AI na UE respeitem os direitos e valores públicos
  2. Proporcionar segurança jurídica para ajudar a facilitar o investimento em tecnologia AI
  3. Melhorar a governação e a aplicação efetiva dos requisitos de ética e segurança
  4. Desenvolver um mercado único AI na UE, garantindo a utilização segura e ética da tecnologia

Um Escritório de IA dentro da Comissão deve ser estabelecido para fazer cumprir a lei. O escritório monitora a eficácia com que os provedores de Inteligência Artificial de Uso Geral (GPAI) implementam seus regulamentos. Além disso, os provedores downstream podem reclamar com os provedores upstream em caso de violação.

O AI Office também pode avaliar modelos GPAI para solicitar informações ou investigar riscos sistêmicos após um relatório de um painel de especialistas independentes.

Pontos-chave do Ato AI da UE

A Lei AI da UE tem vários pontos-chave que abordam várias preocupações sobre o uso de AI . As seções abaixo descrevem isso com mais detalhes.

Profissional de camisa branca opera um tablet exibindo ícones avançados de segurança e conectividade global.
Demonstrar integrações tecnológicas globais seguras, aprimorando a governança e a supervisão AI.

Classificação baseada em risco de sistemas AI

A classificação baseada em risco da Lei AI da UE consiste em quatro níveis:

  1. Risco inaceitável: Modelos que representam um risco inaceitável são proibidos Os exemplos incluem manipulação comportamental, exploração de pessoas vulneráveis, pontuação social por autoridades públicas e assim por diante.
  2. Alto risco: Os sistemas de alto risco estão sujeitos a avaliação de conformidade Esses modelos representam um alto risco para a saúde, segurança, fundamentos e direitos ambientais Alguns exemplos importantes incluem:Modelos que avaliam a elegibilidade do seguro de saúde ou de vidaAnálise de candidaturas a empregoComponentes de segurança do produto.
  3. Risco limitado: Os modelos com riscos limitados estão sujeitos a uma obrigação de transparência Estes normalmente carregam o risco de falsificação de identidade ou engano Os exemplos incluem sistemas AI que interagem com consumidores ou sistemas de AI generativos que geram conteúdo manipulado.
  4. Risco mínimo: Modelos que apresentam risco mínimo não têm obrigações Os exemplos incluem videogames habilitados para AIe filtros de spam.

As empresas devem concluir uma avaliação de conformidade antes de usar modelos AI em seus fluxos de trabalho. Isso também se aplica a empresas que usam modelos GPAI em bancos, educação, etc. Os fornecedores desses modelos GPAI devem fornecer documentação técnica sobre o processo de treinamento e teste e estabelecer uma política para respeitar a Diretiva de Direitos Autorais.

Eles também devem fornecer aos fornecedores a jusante informações e documentação para garantir o cumprimento efetivo da lei. Por fim, eles devem publicar um resumo detalhado do conteúdo usado para treinar o modelo GPAI.

Padrões de transparência e responsabilidade

As obrigações de transparência estabelecidas para AI modelos com risco limitado envolvem informar os utilizadores de que interagem com AI. O objetivo é promover uma cultura de confiança. Pense em quando um ser humano está interagindo com um chatbot. As obrigações de transparência exigem que sejam informadas de que interagem com AIe não com humanos.

Isso ajuda o usuário a decidir se deve ou não continuar. Exige igualmente que se torne identificável o conteúdo gerado por AI, especialmente para os conteúdos emitidos no interesse público.

Em termos de outras regulamentações em todo o mundo, os EUA aprovaram nove projetos de lei relacionados à AI. Entre eles estão a Lei da Iniciativa Nacional de Inteligência Artificial de 2020, a Lei de AI no Governo e a Lei de Avanço da AI Americana.

Referência: Parlamento Europeu

Vários projetos de lei são apresentados em todos os Congressos, mas muito poucos são aprovados. De fato, em novembro de 2023, 33 peças legislativas estavam pendentes de consideração dos legisladores dos EUA.

Referência: Conselho da Nova Inglaterra

O presidente Biden também emitiu uma ordem executiva sobre o desenvolvimento e uso seguro e confiável de inteligência artificial. Como a Lei de AI da UE, exige que os principais desenvolvedores de AI compartilhem os resultados de seus testes de segurança com o governo dos EUA. Também visa proteger os cidadãos americanos do uso malicioso de AI, como fraude e engano.

Implicações da Lei AI da UE para Automação Comercial

As implicações da Lei de AI da UE para a automação afetarão seriamente as operações comerciais. Na verdade, a lei estabeleceu definições claras para todas as partes envolvidas com AI, incluindo fornecedores, implantadores, importadores, fabricantes de produtos e distribuidores.

Como resultado, todas as partes envolvidas no uso, distribuição, desenvolvimento e fabricação de sistemas AI serão responsabilizadas.

Além disso, todas as partes devem consultar o cronograma detalhado de implementação para entender como e quando devem cumprir os requisitos da lei.

As empresas podem cumprir a lei definindo uma política para identificar os níveis de risco dos modelos de AI e priorizando e gerenciando esses riscos. Além disso, eles devem gerenciar as expectativas das partes interessadas e garantir uma comunicação transparente.

Outras etapas incluem a criação de práticas sustentáveis de gerenciamento de dados e testes AI sistemas para garantir que funcionem conforme o esperado. Por fim, eles devem automatizar os processos de gerenciamento e avaliação do sistema e treinar os funcionários sobre a ética do uso AI.

Em um de seus relatórios, a Deloitte examinou o impacto do ato por meio de um estudo de caso fictício para oferecer um exemplo prático de como ele será implementado. Ele se concentrou em duas organizações globais que operam na UE, uma das quais é o CleverBank. Ele usa um sistema de aprovação de empréstimos alimentado por AIcom um modelo GPAI da DataMeld, uma empresa com sede nos EUA que oferece seus modelos de AI na UE.

O CleverBank seria regulamentado como um provedor de AI downstream e um implantador AI . Para cumprir a lei, terá de realizar um teste de conformidade dos seus modelos de AI com as avaliações de alto risco da lei, registar o sistema na base de dados da UE e confirmar que os seus dados de formação estão completos e são relevantes para o fim a que se destina na UE.

Impacto na tomada de decisão automatizada e RPA

AI governança sob os regulamentos da UE também afetará a tomada de decisão automatizada. O regulamento enumera oito utilizações de AI, nomeadamente em instituições financeiras. Isso inclui sistemas AI que usam técnicas subliminares, manipuladoras ou enganosas para prejudicar a tomada de decisões e certos usos de reconhecimento biométrico e facial. Também inclui sistemas que classificam indivíduos com base em traços de personalidade e comportamento e aqueles que inferem emoções em primeiro lugar.

Jovem profissional sorrindo, sobreposto com ícones digitais futuristas que representam tecnologias de reconhecimento facial e AI em um ambiente corporativo.
Insight sobre a implementação de tecnologias de AI destacando os avanços do reconhecimento facial.

Os regulamentos da UE sobre automação robótica de processos também garantirão que as empresas coletem dados de forma transparente.

Página inicial de Tor.app apresentando serviços de integração de AI para aprimorar as operações de negócios, com manchetes enfatizando velocidade, precisão e facilidade.
Explore ferramentas de AI interativas em Tor.app que transformam as operações de negócios com velocidade e eficiência.

Como o Tor.app oferece suporte à privacidade em ambientes regulamentados AI

Este conjunto de produtos oferece um conjunto completo de ferramentas de automação de fluxo de trabalho para empresas. É um dos muitos produtos que estão em conformidade com a Lei AI da UE, entre outros padrões de nível empresarial. Ele usa o poder do AI para simplificar a criação de conteúdo, transcrição, conversão de texto em fala e muito mais. A Lei AI da UE para automação de fluxo de trabalho também garante a segurança desse conjunto de produtos.

Todas as ferramentas em seu pacote estão em conformidade com mecanismos de segurança de nível empresarial, incluindo padrões SOC 2 e GDPR . Isso garante que seus dados estejam sempre protegidos e elimina o risco de uso indevido.

Benefícios do anonimato e da segurança de dados com Tor.app

Como muitos outros aplicativos, ele está em conformidade com os padrões de segurança de dados que garantem o anonimato completo. Além dos dois regulamentos acima, ele também está em conformidade com HIPAA, protegendo as informações médicas em todos os momentos.

Os benefícios de segurança de dados garantem que as empresas possam usar ferramentas de automação de risco mínimo sem comprometer os dados organizacionais e as informações pessoais dos clientes.

Etapas de conformidade que as empresas devem considerar de acordo com a Lei AI da UE

Garantir a conformidade com a Lei AI da UA envolve um processo de duas etapas, uma para o curto prazo e outra para o longo prazo. No curto prazo, as empresas devem definir a governança apropriada para o uso AI. Isso envolve:

  1. Determinar como categorizar os sistemas de AI das empresas com base nos riscos descritos na lei.
  2. Comunicar o uso de AI a todas as partes interessadas, incluindo clientes e parceiros.
  3. Estabelecer mecanismos sustentáveis de governança de dados que garantam privacidade, qualidade e segurança a longo prazo.

O próximo passo é entender os riscos que AI apresenta. Aqui está o que as empresas podem fazer:

  1. Compreender os riscos internos e externos do uso de sistemas AI .
  2. Categorize esses riscos para identificar aqueles com um componente de risco mais alto Isso garantirá o cumprimento das obrigações decorrentes da lei.
  3. Realize uma análise completa de lacunas para entender as áreas em que os sistemas não estão em conformidade com a lei.
  4. Defina um processo abrangente de gerenciamento de riscos de terceiros Isso garantirá que AI uso esteja em conformidade com os regulamentos da lei.

Em terceiro lugar, as empresas também devem iniciar ações que exijam escalonamento ao longo do tempo. Aqui está o que isso inclui:

  1. Otimize e automatize AI processos de gerenciamento do sistema para garantir que os modelos usados sejam transparentes e confiáveis.
  2. Garantir uma documentação abrangente de conformidade com a lei.
  3. Treine os funcionários sobre como usar AI de forma ética e lidar com novas responsabilidades com o uso de AI.

Além dessas medidas de curto prazo, há certas coisas que as empresas devem fazer a longo prazo. Esses incluem:

  1. Antecipar o impacto de longo prazo da regulamentação nos negócios e criar confiança entre os clientes por meio de padrões de transparência AI Eles também devem criar estratégias para alinhar as práticas de negócios com os regulamentos.
  2. Priorizar investimentos de longo prazo na educação de todas as partes interessadas internas e externas sobre a ética da AI e governança.
  3. Incorpore modelos de AI confiáveis na inovação e garanta os mais altos padrões de privacidade e segurança de dados em todas as etapas.

De acordo com Dasha Simons , consultora-gerente da IBM da Trustworthy AI, as empresas precisarão abordar o uso de AI estrategicamente. O C-suite também precisará estar fortemente envolvido nessa conversa.

Além disso, as empresas também devem estar cientes das penalidades financeiras por não conformidade. Esses incluem:

  1. Multas de até € 35 milhões ou cerca de 7% do faturamento anual mundial da empresa por violação do Artigo 5 Isso se refere à violação de práticas AI proibidas.
  2. Coimas até 15 milhões de euros ou 3% do volume de negócios anual por incumprimento de AI obrigações.
  3. Multas até 7,5 milhões de euros ou 1% do volume de negócios anual por prestação de informações falsas.

Além das penalidades financeiras que podem ser impostas, as empresas também podem enfrentar danos à reputação. Isso pode resultar da eliminação da confiança do cliente, das parcerias comerciais e da competitividade.

Identificação de sistemas de alto risco

O primeiro passo para garantir a conformidade com a Lei AI da UE é identificar sistemas de AI de alto risco. De acordo com a Lei, os sistemas de alto risco proibidos são aqueles que:

  1. Implantar " sistemas subliminares, enganosos e manipuladores " para distorcer o comportamento do usuário e prejudicar a tomada de decisões.
  2. Avalie e classifique indivíduos com base no comportamento social ou características pessoais Isso resulta em seu tratamento desfavorável, também conhecido como pontuação social.
  3. Compilar banco de dados de reconhecimento facial raspando imagens disponíveis na internet.
  4. Identificação biométrica em tempo real (RBI) em espaços acessíveis ao público As exceções a isso incluem a busca de pessoas ou vítimas desaparecidas, a prevenção de ameaças à vida e a identificação de suspeitos envolvidos em crimes graves.
  5. Explorar idade, grupo ou outras vulnerabilidades relacionadas para distorcer o comportamento.

Desenvolvendo protocolos de documentação

As empresas também devem desenvolver um processo de documentação abrangente para identificar o uso de sistemas de AI de alto risco. Eles precisam garantir que AI sistemas cumpram completamente os regulamentos estabelecidos na Lei AI da UE. A documentação também deve abranger todos os sistemas de AI de alto risco que uma empresa tenha identificado. Outros aspectos são estratégias para garantir maior transparência.

Benefícios e desafios de aderir à Lei AI da UE

A adesão à Lei AI da UE traz seus benefícios e desafios. É o caso de qualquer novo regulamento. Alguns dos benefícios incluem:

  • Maior confiança: Os usuários podem ter mais certeza de que os sistemas AI que usam estão em conformidade com os regulamentos da Lei.
  • Custos reduzidos: As empresas terão acesso mais fácil a soluções de AI europeias que já estão em conformidade com a lei Como resultado, eles podem reduzir o custo de encontrar a solução certa.
  • Maior proteção de dados: O alinhamento da Lei de AI da UE com o Regulamento Geral de Proteção de Dados (GDPR) garante os mais altos padrões de proteção de dados.

Por outro lado, alguns dos desafios deste ato incluem:

  • Preços mais altos: AI soluções em conformidade com a lei podem custar mais do que outras Isto é especialmente verdade se tiverem origem fora da UE.
  • Funcionalidade reduzida: AI regulamentos podem eliminar certos recursos AI , reduzindo a funcionalidade para as partes interessadas internas e externas.
  • Inovação potencialmente reduzida: As regulamentações mais rígidas podem custar a inovação Regiões com menos ou nenhuma regulamentação podem assumir a corrida da inovação.

Homem de camisa branca profundamente focado em analisar um holograma digital de AI de um rosto humanóide em seu laptop.
Explorando as profundezas da tecnologia de AI e suas implicações sob os novos regulamentos da UE.

Benefícios de longo prazo para confiança e ética

De acordo com Statista, apenas um quarto dos adultos americanos confiava em AI para fornecer informações precisas. O número exato confiava nele para tomar decisões éticas e imparciais. Mesmo quando examinado globalmente, esse número mostra a escala da desconfiança em AI.

Referência: Statista

A Lei AI da UE visa reduzir essa desconfiança e garantir maior transparência na forma como as empresas usam AI. Ele também se concentra nos dados que eles coletam para garantir os mais altos padrões de segurança.

A longo prazo, o cumprimento desses regulamentos garantirá maior confiança nas empresas. Também garantirá que AI seja usado de forma ética e seu uso indevido seja coibido.

Conclusão

A Lei AI da UE é o conjunto mais abrangente de regulamentos. Procura reger a utilização de sistemas AI na União Europeia. Assegura AI responsabilização na UE. Ele classifica os sistemas com base em seus riscos e lista os regulamentos para cada categoria.

No futuro, as empresas devem garantir a conformidade com os regulamentos da lei. Devem também garantir a transparência e os mais elevados padrões de segurança e privacidade dos dados.

Para quem procura uma ferramenta que já esteja em conformidade com os mais altos regulamentos AI , você deve conferir Tor.app. Ele oferece uma ferramenta abrangente de automação de fluxo de trabalho que maximiza a eficiência e a lucratividade.

Frequently Asked Questions

O Parlamento Europeu adotou a Lei de Inteligência Artificial em 13 de março de 2024. Trata-se do conjunto horizontal de regulamentos sobre AI mais abrangente do mundo. Ele lista os regulamentos sobre transparência de supervisão humana, qualidade de dados e segurança.

A Lei de AI da UE visa garantir que os sistemas de AI usados na União Europeia sejam seguros e não violem os direitos fundamentais dos cidadãos. Também visa incentivar a inovação no campo da AI, garantindo os mais altos padrões de privacidade e segurança de dados.

A Lei de AI da UE entrou em vigor em 1º de agosto de 2024 e entrará em vigor a partir de 2 de agosto de 2026. As únicas excepções a esta regra são as disposições enumeradas no artigo 113.º.