Tiago Massoni

Logo

Associate Professor in Computer Science

View My GitHub Profile

Centenas de especialistas mundiais publicaram, na semana passada, um apelo para uma pausa de seis meses na pesquisa sobre Inteligências Artificiais como o GPT-4, alertando para “grandes riscos para a humanidade”. Será que corremos esse risco? Ou estamos diante das velhas batalhas empresariais relacionadas às tecnologias inovadoras?

Bom dia ouvintes da CBN,

Se eu peço pro computador criar uma música sobre meu animal de estimação, ele vai lá e faz na hora. Seu eu passo um exercício um problema de engenharia, ele vai e resolve. Corrigir meus textos, traduzir um discurso em chinês, criar uma receita na hora com os ingredientes que tenho à mão. Uma máquina tão inteligente que parece aprender com tudo poderia adquirir consciência e se voltar contra nós, humanos? Já andam prevendo que essas máquinas, dotadas de modelos amplos de linguagem, como é o caso do GPT-4, tomarão em breve os empregos de muita gente. Mas e se esses programas tiverem o controle de veículos ou armamentos militares, devemos ter medo?

Algumas pessoas já estão preocupadas com isso. Itália e China proibiram o chatGPT, em caráter temporário, pelo menos. Além disso, centenas de especialistas mundiais publicaram, na semana passada, um apelo para uma pausa de seis meses na pesquisa sobre Inteligências Artificiais (IAs) mais potentes do que o GPT-4, lançado em março, alertando para “grandes riscos para a humanidade”. Na petição publicada no site futureoflife.org, eles pedem uma moratória até que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de inteligência artificial, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer frente à “drama perturbação econômica e política (especialmente para a democracia) que a Inteligência Artificial causará”. Entre os autores da carta estão Elon Musk, dono do Twitter e fundador da SpaceX e da Tesla, o historiador Yuval Harari, autor do best-seller Sapiens, e o co-fundador da Apple, Steve Wozniak.

Eu li o texto da carta. Ele destaca que está havendo uma corrida descontrolada para desenvolver soluções que ninguém, nem seus criadores, parece entender como elas funcionam, sem poder então controlar de forma confiável. O alerta vai na linha de criticar a possibilidade desses programas gerarem uma avalanche de fake News convincentes, ou de automatizar todo e qualquer trabalho, mesmo aqueles que consideramos gratificantes. A crítica vai na direção de que decisões tão importantes não devem ficar na mão de líderes não-eleitos, como engenheiros em startups de tecnologia. O documento finaliza com um alerta um tanto dramático: Devemos nos arriscar a perder o controle da nossa civilização?

A carta usa como motivação principal uma fala recente do próprio fundador da empresa Open AI, que criou o ChatGPT. Nela, Sam Altman reconhece ter um pouco de medo de que sua criação seja usada para “desinformação em larga escala, ou para ciberataques”. A empresa precisaria de tempo para se adaptar.

Não tem como negar que a evolução está bastante acelerada. A ideia dos modelos estatísticos de geração de texto não é nova, a tentativa de gerar texto com a próxima palavra sendo a mais provável a partir de um conjunto de textos existente. A capacidade de aprendizado potencializa-se depois da criação das técnicas de aprendizado profundo, que vêm a público por volta de 2011. Em 2017, são propostos os mecanismos que permitem que esse treinamento seja muito mais rápido, os chamados transformers (e não estou falando daqueles carros-robôs do cinema). Toda essa sequência de avanços recentes possibilitou os modelos chamados de amplos, que andam deixando a gente admirado. No caso do GPT, ele parece ser tão inteligente também porque a empresa openIA contratou centenas de pessoas que o “ensinaram” a entender aquilo que pedimos a ele, os chamados “prompts”.

Os dias seguintes à publicação da carta foram repletos de debates entre acadêmicos e líderes do setor. Várias pessoas consideraram que há uma má interpretação da discussão, com a ideia de que programas como o GPT-4 possam ser algo muito maior do que realmente são: algo que responde perguntas a partir de textos encontrados na internet, num formato palatável para o ser humano. Disso para um mundo em que as máquinas vão adquirir consciência e se tornar uma inteligência artificial GERAL, está muito longe.

O principal pedido da carta não faz mesmo muito sentido. O que iria acontecer nesses seis meses de pausa? É difícil imaginar que a Microsoft, depois de investir US$10 bilhões de dólares na OpenAI, vai mudar de repente seu curso de trabalho e demitir todos os especialistas.

Além disso, a regulamentação de governos demora, e muito. Até que as democracias entrem num consenso sobre as regras que vão organizar a pesquisa em inteligência artificial…

E tem uma coisa a considerar. Usar a fala do dono da empresa OpenAI como uma alerta parece pouco inteligente, já que a intenção dele em dizer que está com um pouco de medo da tecnologia provavelmente é apenas um jeito de supervalorizar seu próprio produto, aquele que já o está deixando bastante rico, e provavelmente será muito lucrativo durante anos. Um jogadinha de marketing, né?

Eu concordo que há riscos do uso da IA com desinformação, o impacto sobre os empregos e a privacidade. Mas muita gente boa acha que os problemas aí são outros. No caso da desinformação, um IA pode criar conteúdo mentiroso à vontade, mas ele não seria tão nocivo à sociedade se ele não fosse distribuído massivamente pelas redes sociais. Talvez o problema mais sério sejam as próprias redes, certo?

Enfim, a evolução das inteligências artificiais continuará, e dependerá de nós estabelecer como esses avanços serão úteis para a nossa sociedade minimizando seus efeitos nocivos. Sem alarmismo.

Um abraço e até a próxima.