Olá! Utilizamos cookies para oferecer melhor experiência, melhorar o desempenho, analisar como você interage em nosso site e personalizar conteúdo. Ao utilizar este site, você concorda com o uso de cookies.

Domingo, 02 de Fevereiro de 2025

Noticias

Qual a chance da IA se revoltar contra os humanos?

06 de Setembro de 2024 as 08h 44min

As histórias de máquinas se rebelando contra seus criadores já se tornaram parte da nossa cultura popular. Filmes, livros e videogames abordam esse medo de forma recorrente. Mas será que a inteligência artificial pode realmente tomar consciência e sair do nosso controle?

Pesquisadores da Universidade Técnica de Darmstadt, na Alemanha, e da Universidade de Bath, no Reino Unido, foram à procura de uma resposta e observaram se modelos de linguagem grandes (LLMs – sigla em inglês) podem desenvolver habilidades para além de seu código. O resultado mostra que não precisamos ter medo por enquanto.

Com o aumento do tamanho dos atuais modelos de linguagem, há o temor de que eles possam desenvolver habilidades perigosas, como raciocínio e planejamento.

Nos testes, os pesquisadores analisaram quatro modelos de LLMs que desenvolveram tarefas emergentes, ou seja, para as quais não foram explicitamente treinados. Eles não encontraram evidências de desenvolvimento de pensamento independente ou qualquer tipo de comportamento fora da programação.

Todas as habilidades exibidas pelos modelos foram explicadas pela capacidade de seguir instruções, memorização e proficiência linguística, sem qualquer desvio. Em resumo, o resultado mostra que o medo de que um modelo de IA desenvolva comportamentos inesperados e consciência não é justificado.

Nos últimos anos, os modelos de linguagem (LLMs) evoluíram para se tornarem muito mais sofisticados, sendo capazes de manter conversas coerentes e naturais via texto. Apesar disso, esses modelos não são perfeitos, pois não possuem inteligência real, o que os impede de distinguir informações boas e ruins em muitos casos.

O perigo mesmo está em quem e como utiliza essas ferramentas. Ao contrário da IA, as pessoas são menos previsíveis, e seu uso desenfreado da tecnologia já levanta questões como direitos autorais, confiança, poluição digital e outros. Segundo pesquisadores, essas ameaças devem ser o foco de futuras investigações científicas.

Nossos resultados não significam que a IA não seja uma ameaça. Em vez disso, mostram que o suposto surgimento de habilidades de pensamento complexas associadas a ameaças específicas não é apoiado por evidências e que podemos controlar muito bem o processo de aprendizagem de LLMs, afinal. A pesquisa foi divulgada nos anais da 62ª Reunião Anual da Associação de Linguística Computacional.

Fonte: DA REPORTAGEM

Veja Mais

10 golpes de Pix para ficar de olho em 2025 e se proteger

Publicado em 02 de Fevereiro de 2025 ás 07h 45min


Equipamentos para o Hospital Central já estão sendo instalados, diz Mauro

Publicado em 02 de Fevereiro de 2025 ás 05h 39min


Preso "homem" que matou esposa a facadas na frente das filhas

Publicado em 01 de Fevereiro de 2025 ás 09h 44min


Jornal Online

Edição nº1473 31/01/2025