Elon Musk (CEO da SpaceX, Tesla e Twitter) e Steve Wozniak, co-fundador da Apple, publicaram na semana passada uma carta aberta solicitando uma interrupção de seis meses no desenvolvimento de sistemas de inteligência artificial (IA) mais avançados que o GPT-4.
A carta já reuniu mais de 16.000 assinaturas e manifesta o temor de que “uma corrida desenfreada” entre programas como o ChatGPT da OpenAI, o chatbot Bing AI da Microsoft e o Bard da Alphabet possa acarretar “riscos profundos para a sociedade e a humanidade”. A publicação aborda as preocupações de Musk e Wozniak, os posicionamentos dos desenvolvedores e especialistas, incluindo Bill Gates, e o papel da regulamentação governamental na criação de barreiras para limitar os riscos envolvidos no desenvolvimento de IA.
As preocupações de Musk e Wozniak são compreensíveis, pois as empresas que se dedicam à IA “criam mentes digitais cada vez mais poderosas, que ninguém, nem mesmo seus criadores, podem entender, prever ou controlar de forma confiável”. Além disso, os sistemas de IA apresentam falhas na programação e problemas de privacidade, bem como podem difundir informações errôneas e substituir os trabalhadores humanos, como os assistentes de atendimento ao cliente, economizando salários para as empresas.
No entanto, a Anthropic, uma empresa de pesquisa em IA que recebeu um investimento de US$ 400 milhões da Alphabet, acredita que as tecnologias atuais não representam uma preocupação iminente e que os sistemas de IA podem se tornar muito mais poderosos na próxima década. Para ajudar a reduzir os riscos, a empresa defende a construção de barreiras limitadoras, embora ainda não saiba quais são essas barreiras.
Embora a carta aberta não tenha obtido muito apoio por parte dos criadores de IA, é pouco provável que eles concordem voluntariamente em interromper sua atividade por um período de meio ano. A opção mais provável parece ser o estabelecimento de regulamentações mais rígidas pelos governos no desenvolvimento e treinamento de sistemas de IA.
De fato, Stuart Russell, cientista da computação da Universidade de Berkeley e pesquisador líder em IA, que também assinou a carta aberta, indicou que tais regulamentações deveriam ser implementadas antes que a tecnologia avançasse mais. Embora uma pausa possa ajudar as empresas criadoras de IA a demonstrar que seus trabalhos não apresentam um risco indevido.
Tanto as pessoas que assinaram a carta quanto as que se opuseram a ela concordam que é essencial prevenir os piores cenários possíveis para o futuro da IA, mas há discordância quanto a como isso pode ser alcançado.
Alguns argumentam que uma pausa no desenvolvimento é necessária, enquanto outros acreditam que a regulamentação governamental é a melhor solução para criar barreiras limitadoras. É importante destacar que a IA tem o potencial de mudar o mundo para melhor, mas deve ser tratada com cautela e responsabilidade.
Quer receber as principais notícias do Portal N10 no seu WhatsApp? Clique aqui e entre no nosso canal oficial.