Líderes de IA emitem alerta sobre “risco de extinção” em carta aberta
O Centro de Segurança de IA (CAIS) divulgou recentemente um comunicado assinado por figuras proeminentes no campo da inteligência artificial, destacando os perigos potenciais que a tecnologia representa para a humanidade.
A declaração afirma que “mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos à escala social, como pandemias e guerra nuclear”.
Pesquisadores renomados e vencedores do Prêmio Turing, incluindo Geoffery Hinton e Yoshua Bengio, bem como executivos da OpenAI e DeepMind, como Sam Altman, Ilya Sutskever e Demis Hassabis, assinaram a declaração.
O objetivo da carta CAIS é iniciar discussões em torno dos riscos urgentes associados à IA. A carta atraiu apoio e críticas na indústria em geral. Segue-se uma carta aberta anterior assinada por Elon Musk, Steve Wozniak e mais de 1.000 outros especialistas, que apelaram à suspensão do desenvolvimento “fora de controlo” da IA.
Apesar da sua brevidade, a declaração recente não fornece detalhes específicos sobre a definição de IA nem oferece estratégias concretas para mitigar riscos. No entanto, o CAIS esclareceu num comunicado de imprensa que o seu objetivo é estabelecer salvaguardas e instituições que gerem eficazmente os riscos da IA.
O CEO da OpenAI, Sam Altman, tem se envolvido ativamente com líderes globais, defendendo regulamentações de IA. Durante uma recente aparição perante o Senado, Altman apelou repetidamente aos legisladores para regulamentarem fortemente a indústria. A declaração do CAIS está alinhada com os seus esforços para aumentar a conscientização sobre os perigos da IA.
Embora a carta aberta tenha gerado atenção, alguns especialistas em ética da IA criticaram a tendência de emitir tais declarações.
Sasha Luccioni, cientista investigadora em aprendizagem automática, sugere que mencionar riscos hipotéticos da IA juntamente com riscos tangíveis, como pandemias e alterações climáticas, aumenta a credibilidade dos primeiros, ao mesmo tempo que desvia a atenção de questões imediatas, como preconceitos, desafios legais e consentimento.
Daniel Jeffries, escritor e futurista, argumenta que discutir os riscos da IA tornou-se um jogo de status, onde os indivíduos aderem ao movimento sem incorrer em quaisquer custos reais.
Os críticos afirmam que assinar cartas abertas sobre ameaças futuras permite que os responsáveis pelos actuais danos da IA aliviem a sua culpa, ao mesmo tempo que negligenciam os problemas éticos associados às tecnologias de IA que já estão em utilização.
No entanto, a CAIS, uma organização sem fins lucrativos sediada em São Francisco, continua focada na redução dos riscos da IA à escala social através de investigação técnica e advocacia. A organização foi cofundada por especialistas com formação em ciência da computação e grande interesse em segurança de IA.
Enquanto alguns investigadores temem o surgimento de uma IA superinteligente que ultrapassa as capacidades humanas e representa uma ameaça existencial, outros argumentam que assinar cartas abertas sobre hipotéticos cenários apocalípticos desvia a atenção dos dilemas éticos existentes em torno da IA. Enfatizam a necessidade de abordar os problemas reais que a IA coloca hoje, como a vigilância, os algoritmos tendenciosos e a violação dos direitos humanos.
Equilibrar o avanço da IA com uma implementação e regulamentação responsáveis continua a ser uma tarefa crucial para investigadores, decisores políticos e líderes da indústria.