A OpenAI causou uma verdadeira revolução na indústria de tecnologia ao lançar seu chatbot, abrindo espaço para diversos concorrentes do mesmo estilo, mas nem tudo são flores. Um hacker conseguiu invadir o sistema interno de mensagens da OpenAI no início do ano passado, roubando dos funcionários os detalhes de como as tecnologias da empresa funcionam.

Ainda que o hacker não tenha acessado os sistemas que abrigam as principais tecnologias de IA, o incidente surgiu Preocupações relacionadas à segurança dentro da empresabem como preocupações sobre a segurança nacional dos EUA, conforme relatado pelo New York Times.









Segurana
03 de julho




Apple pode integrar Google Gemini e ChatGPT ao iOS 18 ainda em 2024





Economia e mercado
02 de julho


A invasão da OpenAI ocorreu em um fórum online onde os funcionários discutiram as últimas tecnologias da empresa. Embora os sistemas da dona do ChatGPT, onde a empresa mantém seus dados de treinamento, algoritmos, resultados e dados de clientes, não tenham sido comprometidos, algumas informações confidenciais foram expostas.

Em abril de 2023, os executivos da OpenAI informaram o incidente aos funcionários e ao conselho, mas pareceram não tornar a informação pública. Eles argumentaram que nenhum dado de clientes ou parceiros foi roubado e que o hacker provavelmente era um indivíduo sem vínculos governamentais. No entanto, nem todos concordaram com a decisão.

Leopold Aschenbrenner, gerente de programa técnico da OpenAI, criticou as medidas de segurança da empresa, sugerindo que elas não eram boas o suficiente para impedir que estrangeiros acessassem informações confidenciais. Curiosamente, ele acabou sendo demitido por vazar informações, uma atitude que ele alega ter tomado por motivações políticas. Apesar das alegações de Aschenbrenner, a OpenAI sustenta que sua demissão não teve relação com suas preocupações sobre segurança. A empresa aprovou suas contribuições, mas discordou de sua avaliação das práticas de segurança.

O incidente aumentou a preocupação com possíveis vínculos com estrangeiros, particularmente a China. No entanto, a OpenAI acredita que suas atuais tecnologias de IA não representam uma ameaça significativa à segurança nacional. Ainda assim, podemos imaginar que o vazamento delas para especialistas chineses os ajudaria a avançar suas tecnologias de IA mais rapidamente.

Em resposta à invasão, a OpenAI, assim como outras empresas, vem aprimorando suas medidas de segurança, como a adição de proteções para evitar o uso indevido de suas aplicações de IA. Além disso, o OpenAIPB é um Comitê de Segurança e Proteção, incluindo o ex-chefe da NSA, Paul Nakasone, para lidar com riscos futuros.

Outras empresas, como a Meta, estão tornando seus projetos de IA de código aberto para promover melhorias em toda a indústria. No entanto, isso também torna as tecnologias capazes de atingir ameaças externas. Estudos realizados pela OpenAI, Anthropic e outras indicam que os sistemas de IA atuais não são mais perigosos do que os motores de busca.

Regulamentações federais e estaduais estão sendo discutidas para controlar o lançamento de tecnologias de IA e importar garantias por resultados prejudiciais. No entanto, isso parece mais uma precaução, pois especialistas acreditam que os riscos mais graves da IA ​​ainda estão a anos de distância.

Você confia na segurança de empresas como OpenAI e Meta?

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *