Noticias
Como as IAs “pensam” e por que devemos monitorá-las
22 de Julho de 2025 as 17h 31min

Você já parou para imaginar como um modelo de inteligência artificial chega às respostas para suas perguntas? Como uma IA “pensa”? Muitas vezes, os modelos de IA utilizam um processo chamado cadeias de pensamento, ou CoTs, sigla para chains of thought em inglês.
Pesquisadores de grandes empresas como OpenAI, Google DeepMind, Meta, Anthropic e muitas outras, junto com organizações sem fins lucrativos, alertam para a importância de monitorar as CoTs. O apelo foi feito em um artigo publicado nesta semana.
“Sistemas de IA que ‘pensam’ em linguagem humana oferecem uma oportunidade única para a segurança da IA: podemos monitorar suas cadeias de pensamento (CoTs) para identificar intenções de se comportar de forma inadequada. Assim como todos os outros métodos conhecidos de supervisão de IA, o monitoramento de CoTs é imperfeito e permite que alguns comportamentos indevidos passem despercebidos”.
Esses modelos de raciocínio são uma tecnologia central para agentes de IA. Os autores do artigo argumentam que o monitoramento das CoTs pode ser um método essencial para manter esses agentes sob controle, à medida que se tornam mais difundidos e capazes.
As CoTs se assemelham a rascunhos que nós, seres humanos, também usamos para resolver problemas. São esses rascunhos que devem ser acompanhados pelos desenvolvedores. Para isso, os pesquisadores alertam para a necessidade de fazer com que os modelos de IA “pensem em voz alta”.
Para resolver problemas mais complexos, os modelos de IA sempre recorrem às cadeias de pensamento e precisam externalizar seu raciocínio. Isso permite que esse raciocínio seja monitorado e torna possível identificar comportamentos inadequados.
Os autores do artigo recomendam mais pesquisas sobre a monitorabilidade das CoTs e investimentos em seu monitoramento, aliados aos métodos de segurança existentes. E alertam: “Como a monitorabilidade das CoTs pode ser frágil, recomendamos que os desenvolvedores de modelos de ponta considerem o impacto de suas decisões de desenvolvimento sobre essa capacidade.”
Entender quais fatores aumentam ou reduzem a transparência sobre como os modelos realmente chegam às respostas é essencial para evitar intervenções que possam comprometer sua confiabilidade.
Quem assinou o artigo? Entre os signatários notáveis estão: Mark Chen (diretor de pesquisa da OpenAI); Ilya Sutskever (CEO da Safe Superintelligence); Geoffrey Hinton (laureado com o Nobel); Shane Legg (cofundador da Google DeepMind); Dan Hendrycks (conselheiro de segurança da xAI) ; e John Schulman (cofundador da Thinking Machines).
Também assinam líderes do Instituto de Segurança em IA do Reino Unido e da Apollo Research, além de representantes da METR, Amazon, Meta e UC Berkeley.
O artigo representa um momento de união dentro do setor e um esforço para impulsionar a pesquisa em segurança. Pode indicar, ainda, a necessidade crescente de regulamentação para a inteligência artificial.
Ao mesmo tempo, as empresas disputam pesquisadores especializados em IA e modelos de raciocínio. A Meta contratou pesquisadores de ponta da OpenAI, Google DeepMind e Anthropic com ofertas milionárias.
Fonte: DA REPORTAGEM
Veja Mais
Obra da nova Prefeitura de Sinop avança e chega a 8% de execução
Publicado em 22 de Julho de 2025 ás 17h 46min
Bases foram definidas em 2018, revelam documentos do BC
Publicado em 22 de Julho de 2025 ás 16h 30min
Terminal Rodoviário de Cuiabá passa a gerar 100% da energia que consome
Publicado em 22 de Julho de 2025 ás 15h 29min