![](https://files.tecnoblog.net/wp-content/uploads/2023/06/capas-iasartboard-6-1060x596.png)
O avanço da inteligência artificial (IA) deixou autoridades e especialistas no assunto preocupados com o uso malicioso da tecnologia. É por isso que organizações como Microsoft, Meta, Google e OpenAI concordaram em implementar um “interruptor” se não pudessem garantir a segurança de um modelo de IA.
A decisão foi anunciada no evento AI Seoul Summit 2024, realizado na Coreia do Sul. Na proposta, as organizações se comprometem a medir os riscos de seus modelos de IA, evitando que agentes externos possam utilizar a tecnologia em aplicações para as quais ela não foi projetada originalmente, por exemplo.
Em linhas gerais, a ideia é que as organizações definam os tipos de riscos associados ao desenvolvimento de suas tecnologias de IA. Com base nisso, eles devem impedir o avanço de riscos considerados intoleráveis, como aqueles que podem resultar em ataques cibernéticos ou favorecer ameaças biológicas.
Paralisar a IA se o risco for alto
Os riscos seriam situações extremas, mas que podem ter consequências graves. O tal do “interruptor” consiste então em paralisar o desenvolvimento dos modelos de IA envolvidos, caso as organizações responsáveis não encontrem outros meios de mitigar o problema.
Esse é um trabalho que precisa ser alinhado com as autoridades. Por isso, o acordo envolve governos de países como Estados Unidos, China, Canadá, Reino Unido, França e Coreia do Sul, onde a conferência foi realizada.
Os compromissos acordados no evento dizem respeito apenas a modelos de inteligência artificial de “fronteira”, ou seja, envolvem aqueles que estão por trás de grandes sistemas generativos. O exemplo mais óbvio é o GPT, conjunto de modelos de linguagem que é base do ChaGPT.
![A OpenAI está entre as empresas que fecham o acordo (imagem: Vitor Pádua/Tecnoblog)](https://files.tecnoblog.net/wp-content/uploads/2023/06/openai-4_capa-700x394.png)
Empresas participantes
Como empresas que participaram o acordo são estes:
- Amazonas
- Antrópico
- Coerente
- G42
- IBM
- IA de inflexão
- meta
- Microsoft
- IA Mistral
- Naver
- OpenAI
- Eletrônica Samsung
- Instituto de Inovação Tecnológica
- xAI
- Zhipu.ai
A iniciativa é bem-vinda. Mas fica a dúvida se acordos como esses serão suficientes para reprimir possíveis ameaças potencializadas pela inteligência artificial. Como destaca a CNBC, a União Europeia já trabalha em uma lei para moderar o avanço rápido da IA. Esse é mais um sinal do que o assunto preocupa as autoridades.