Líderes de IA emitem alerta sobre “risco de extinção” em carta aberta

O Centro de Segurança de IA (CAIS) divulgou recentemente um comunicado assinado por figuras proeminentes no campo da inteligência artificial, destacando os perigos potenciais que a tecnologia representa para a humanidade.

A declaração afirma que “mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos à escala social, como pandemias e guerra nuclear”.

Pesquisadores renomados e vencedores do Prêmio Turing, incluindo Geoffery Hinton e Yoshua Bengio, bem como executivos da OpenAI e DeepMind, como Sam Altman, Ilya Sutskever e Demis Hassabis, assinaram a declaração.

O objetivo da carta CAIS é iniciar discussões em torno dos riscos urgentes associados à IA. A carta atraiu apoio e críticas na indústria em geral. Segue-se uma carta aberta anterior assinada por Elon Musk, Steve Wozniak e mais de 1.000 outros especialistas, que apelaram à suspensão do desenvolvimento “fora de controlo” da IA.

Apesar da sua brevidade, a declaração recente não fornece detalhes específicos sobre a definição de IA nem oferece estratégias concretas para mitigar riscos. No entanto, o CAIS esclareceu num comunicado de imprensa que o seu objetivo é estabelecer salvaguardas e instituições que gerem eficazmente os riscos da IA.

O CEO da OpenAI, Sam Altman, tem se envolvido ativamente com líderes globais, defendendo regulamentações de IA. Durante uma recente aparição perante o Senado, Altman apelou repetidamente aos legisladores para regulamentarem fortemente a indústria. A declaração do CAIS está alinhada com os seus esforços para aumentar a conscientização sobre os perigos da IA.

Embora a carta aberta tenha gerado atenção, alguns especialistas em ética da IA ​​criticaram a tendência de emitir tais declarações.

Sasha Luccioni, cientista investigadora em aprendizagem automática, sugere que mencionar riscos hipotéticos da IA ​​juntamente com riscos tangíveis, como pandemias e alterações climáticas, aumenta a credibilidade dos primeiros, ao mesmo tempo que desvia a atenção de questões imediatas, como preconceitos, desafios legais e consentimento.

Daniel Jeffries, escritor e futurista, argumenta que discutir os riscos da IA ​​tornou-se um jogo de status, onde os indivíduos aderem ao movimento sem incorrer em quaisquer custos reais.

Os críticos afirmam que assinar cartas abertas sobre ameaças futuras permite que os responsáveis ​​pelos actuais danos da IA ​​aliviem a sua culpa, ao mesmo tempo que negligenciam os problemas éticos associados às tecnologias de IA que já estão em utilização.

No entanto, a CAIS, uma organização sem fins lucrativos sediada em São Francisco, continua focada na redução dos riscos da IA ​​à escala social através de investigação técnica e advocacia. A organização foi cofundada por especialistas com formação em ciência da computação e grande interesse em segurança de IA.

Enquanto alguns investigadores temem o surgimento de uma IA superinteligente que ultrapassa as capacidades humanas e representa uma ameaça existencial, outros argumentam que assinar cartas abertas sobre hipotéticos cenários apocalípticos desvia a atenção dos dilemas éticos existentes em torno da IA. Enfatizam a necessidade de abordar os problemas reais que a IA coloca hoje, como a vigilância, os algoritmos tendenciosos e a violação dos direitos humanos.

Equilibrar o avanço da IA ​​com uma implementação e regulamentação responsáveis ​​continua a ser uma tarefa crucial para investigadores, decisores políticos e líderes da indústria.