Empresas Tech pensam em criar um botão de emergência para IA

29 de maio de 2024

Emanuella Dias Ferreira

Tempo de leitura: 4 minutos

Escute esta notícia

Algumas das maiores companhias do mundo de tecnologia como OpenAI, Microsoft e Amazon começaram a discutir um acordo internacional de cooperação para regulação de segurança sobre atuação de modelos de IA. Os debates foram realizados no Seoul AI Safety Summit. Companhias de vários países como Estados Unidos, Reino Unido, China, França, Coreia do Sul e Emirados Árabes Unidos foram chamadas para o debate.

Novas limitações

As regulações incluem a criação de frameworks de segurança que possam identificar “red lines” presentes em modelos avançados de IA e possam facilitar a interrupção de ciberataques ou criação de bioarmas. Entretanto, cada companhia podia expandir seus frameworks à sua maneira com banimento a riscos além dos já apresentados, que achar necessário. Para fazer isso, elas utilizarão um “kill switch” (botão de emergência) que cessaria o desenvolvimento de modelos avançados de IA que incluam esses riscos.

“É o mundo pela primeira vez tendo tantas companhias líderes em IA de diferentes partes do globo, todas concordando em fazer o mesmos compromissos sobre segurança de IA”, diz Rishi Sunak, primeiro ministro do Reino Unido.

Mercado de Inteligência Artificial

Desde que a OpenAI lançou o chat GPT em novembro de 2022, muitos debates como estes têm surgido devido aos riscos que esses LLMs possuem de espalhar desinformação, discursos de ódio, etc. De acordo com dados da GlobalData forecast é esperado que o mercado de IA valha em torno de US$909 bilhões até 2030 e cresça a uma taxa  de 35% ao ano entre 2022 e 2030. Sendo assim, a IA estará presente em diversos setores da indústria e estabelecer o compromisso com a segurança de seus usuários é super importante.

 

União Europeia e AI Act

União Europeia tem virado referência em temas relacionados à Inteligência Artificial. Os parlamentares europeus aprovaram no dia 21/05 um acordo político estabelecido em dezembro de 2023 e se tornando uma referência mundial nesse quesito. Apesar dessa questão, algumas regras só começarão a ser aplicadas nos próximos meses e outras apenas em 2026. 

O principal objetivo da Lei de IA da UE é fornecer transparência para seus usuários e outros envolvidos. Para modelos IA mais avançados e de alto risco as regulações serão mais severas, enquanto para modelos de uso geral será mais leve. Além disso, também será proibido a utilização de vigilância biométrica em tempo real, salvo o uso para ajudar na prevenção de ataques terroristas, auxílio em investigações de crimes. Empresas de fora da UE que utilizem dados de clientes da UE também terão de seguir as regras. As multas variam de €7,5 milhões, ou 1,5% do faturamento a  €35 milhões, ou 7% do faturamento.

Oportunidades de aprender sobre IA na PUC-Rio

Tendo em vista os avanços do mercado de trabalho e a curiosidade de profissionais por entender melhor esta tecnologia, bem como, impulsionar a carreira, a PUC-Rio lança seu programa de Pós-graduação MBA BI MASTER – Business Intelligence. Um curso focado em capacitar profissionais em Ciência de Dados e Inteligência Artificial para o ambiente corporativo e de negócios. Além disso, a PUC-Rio oferece um novo curso de extensão focado em LLMs, ChatBots: Chat GPT, AI generativa, Bert, Prompt Engineer e Hugging Engineering e Deep Learning em Python.

Fontes: 

CNBC | yahoo finance | Agência Brasil

×

Hello!

Click one of our contacts below to chat on WhatsApp

× Como posso te ajudar?