bukib
0 bukibs
Columbus, Ohio
Hora local: 03:06
Temperatura: 6.8°C
Probabilidade de chuva: 0%

Carta assinada por Wozniak quer parar desenvolvimento da superinteligência da IA

Carta Assinada por Wozniak Quer Parar Desenvolvimento da Superinteligência da IA

Uma carta aberta assinada por personalidades influentes, incluindo Steve Wozniak, cofundador da Apple, reacendeu o debate global sobre os limites da inteligência artificial. O documento, organizado pelo Future of Life Institute (FLI), pede a proibição do desenvolvimento de “superinteligência” artificial, que são sistemas de IA capazes de superar o intelecto humano em praticamente todas as tarefas cognitivas.

A carta solicita que governos e empresas suspendam qualquer projeto voltado à criação de superinteligências até que exista consenso científico de que essa tecnologia possa ser desenvolvida de maneira segura, controlável e com apoio público. O FLI argumenta que a corrida tecnológica em torno da IA está acontecendo sem a devida consulta à sociedade e sem garantias de segurança.

Signatários e Objetivos

Entre os signatários da carta estão nomes de diferentes áreas, incluindo o ator Joseph Gordon-Levitt, o músico will.i.am, os cientistas Geoffrey Hinton e Yoshua Bengio, além de líderes religiosos, laureados com o Prêmio Nobel e figuras públicas como o Príncipe Harry e Meghan Markle. O documento aponta que os riscos vão muito além da perda de empregos, mencionando ameaças à liberdade, à segurança nacional e até à sobrevivência humana, caso sistemas superinteligentes se tornem incontroláveis.

A carta também destaca que, embora empresas como OpenAI, Google e Anthropic tenham como meta desenvolver inteligência artificial geral, um estágio anterior à superinteligência, essa própria fase já poderia abrir caminho para sistemas capazes de se autoaperfeiçoar e escapar ao controle humano.

Riscos e Consequências

  • Perda de empregos
  • Ameaças à liberdade
  • Ameaças à segurança nacional
  • Ameaças à sobrevivência humana

Embora o texto tenha ganhado adesão de figuras importantes, grandes nomes da indústria de IA, como Sam Altman (OpenAI), Mustafa Suleyman (Microsoft/DeepMind) e Elon Musk (xAI), não assinaram o documento. A carta do FLI não é a primeira a alertar sobre os riscos de uma IA fora de controle, mas é uma das mais apoiadas.

O movimento marca um ponto de inflexão: a pressão por regulação democrática e responsabilidade ética no avanço da inteligência artificial está se tornando impossível de ignorar. A carta assinada por Wozniak e outros é um chamado à ação para que governos e empresas tomem medidas para garantir que o desenvolvimento da IA seja feito de maneira segura e responsável.

Este conteúdo pode conter links de compra.

Fonte: link