BaixaCultura

A vertiginosa ascensão das IAs e do ChatGPT em 2023

 

Faz umas quatro semanas que parei para começar a escrever sobre os diversos links que todo dia chegavam (e continuam chegando) pra mim sobre IAs e o ChatGPT. Quando parava pra ler um chegava outro texto, e outro, outro, cada um mais “definitivo” do que outro, apocalípticos e desdenhosos, otimistas e proféticos, de perspectivas diferentes . Enquanto o tempo necessário para acompanhar as discussões diminuía, a coleção de links só aumentava. Passou o carnaval e fevereiro e nada de conseguir ler tudo ou escrever sobre.

Mas eis que chegou março e, bem, os links vão continuar aumentando, como sugere o meme logo acima. Mas pelo menos aqui está um pequeno resumo/panorama do que consegui parar e ler. Até o final do ano teremos muitas mudanças nesse tópico, mas neste início de março de 2023 creio ser um bom panorama.

[Leonardo Foletto]

*

O que é o Chat GPT? Esbocei, junto com duas colegas de trabalho, uma pequena definição neste texto: ele é, tecnicamente, um chatbot, um programa que tenta simular a conversação de um ser humano a partir de um modelo de Processamento de Linguagem Natural (PLN). Esse modelo é um conjunto de técnicas e princípios que permitem que uma máquina se comunique com um humano do modo mais “natural” possível. As assistentes de voz Alexa (Amazon) e Siri (Apple), por exemplo, também funcionam a partir do PLN. Contudo, o ChatGPT traz uma capacidade de simular a comunicação humana de uma forma MUITO mais sofisticada do que às encontradas nas assistentes virtuais, e aí é que começa a discussão – e as “espetaculares promessas”, como diz esse texto na Discourse Magazine, um dos primeiros de uma leva cotidiana que está debruçado a entender as promessas, transformações e revoluções possíveis a partir do sistema da OpenIA.

Aliás, começamos nessa linha: promessas, revoluções e transformações no mundo a partir do ChatGPT. Ana Busch, na Exame, faz um resgate da internet (saudosa) de outros tempos para dizer que “não adianta criticar, dizer que o bot erra, que está desatualizado, que ainda precisa caminhar muito (tudo verdade). O futuro vai se impondo dessa forma, e você tem que mergulhar antes de tomar um caldo”. Jesús Díaz, no El Confidencial da Espanha, faz uma boa análise na mesma linha: “Los analistas del Bank of America afirman que la inteligencia artificial es una revolución comparable a la electricidad. Energía, armas, medicinas o naves espaciales, todas las industrias están ya siendo transformadas por una tecnología, aseguran, que en sólo siete años aportará 15,7 billones de dólares a la economía mundial, más que el producto interior bruto anual de toda la zona euro en 2022”. Seria exagero? O tempo dirá. Porém, Jesús não deixa de apontar problemas: “En algún momento del futuro cercano, perderemos nuestra capacidad para distinguir entre los hechos y la ficción creada por las máquinas, sin importar cuántas herramientas forenses podamos idear. Resulta que, después de hablar con algunos de los principales expertos en el campo, ese “futuro cercano” ocurrirá en los próximos 10 años”.

Aqui entra um alerta para uma discussão que particularmente nos interessa: o que é cópia e original na era das IAs? Alguns pesquisadores da área computacional indicam que, em breve, a quantidade de texto/imagem gerada por IAs tende a superar toda produção humana. Dado que estes sistemas funcionam principalmente com novas apresentações de ideias que já foram geradas (e registradas em computadores), será possível reconhecer as fontes e identificar a autoria de uma informação trazida por estas IAs? Os sistemas “artificiais” – e também os “humanos”, ou seria melhor dizer para ambos “híbridos”? – de controle da informação poderão impor limites a esta proliferação e checar a veracidade daquilo que é informado? Já há casos de IAs, como a do Google Assistente, que reconhece os samplers de uma música, trechos de até menos de 1s, e essa tecnologia está apenas em sua infância. Como poderemos falar de cópia e original num mundo cada vez mais dominado por múltiplas cópias reproduzidas ad infinitum por sistemas algorítmicos “inteligentes”? Quais os riscos da reprodução e do aumento de vieses (racistas, machistas, liberais, xenofóbicos) presentes na sociedade no transporte para estes sistemas de processamento de linguagem natural (PLN) como o GPT-3?

A discussão em torno da cópia, plágio e direito autoral a partir do ChatGPT e outros sistemas de IA é uma das que mais tem rendido debate. Neste ótimo texto, Lukas Ruthes Gonçalves, doutorando pela UFPR e membro do Grupo de Estudos em Direito Autoral e Industrial (GEDAI/UFPR), retrata os casos em que artistas processaram IAs por infringir copyrights, caso dos apps Stability.ai e Midjourney, e do como outros casos ainda estão surgindo – caso da Getty Images, que está processando a Stability.ai por supostamente usar imagens da empresa. Ele afirma que a doutrina de uso justo (fair use) e suas limitações e exceções tornaram-se um dos pilares legais dos quais os aplicativos de IA dependem. E que sua “defesa e ampliação são primordiais para que criadores e inventores possam continuar a recombinar conhecimentos existentes para criar novas e excitantes possibilidades, como faziam anteriormente com a câmera e programas de edição de imagens como o photoshop”.

Sobre usos possíveis, há também bastante gente falando. Márcio Telles, pesquisador e professor de comunicação da Tuiuti do Paraná, fez um compilado de usos possíveis (e comentários sobre) dentro da criação e edição de um texto acadêmico. “Tenho a impressão de que a IA democratiza a figura do “assistente de pesquisa” para o “Sul Global” e fura o entrave erguido entre Norte/Sul pela barreira da língua”, escreve Márcio, que vem experimentando com o sistema e postando em suas redes com alguma frequência. O que também vem fazendo o pesquisador Mushtaq Bilal em seu Twitter, em inglês, mas com uma abertura ao ptbr em uma boa thread de “Como usar o ChatGPT em dois tipos de abordagem, minimalista e maximalista”.  O pessoal do Núcleo.Jor também deu boas dicas (24 usos). Nessa editoria, mas com abertura para decorrências do uso do sistema, também entra o cientista cognitivo, pesquisador e professor brasileiro Diogo Cortiz. Dele, destaco dois posts: um sobre um primeiro artigo estruturado (segundo ele) sobre impacto do ChatGPT em tarefas de escrita, em que os pesquisadores fizeram um experimento com profissionais de qualificação média e encontraram aumento da produtividade, da qualidade da entrega e da satisfação dos profissionais. E outro sobre como o ChatGPT pode literalmente alucinar – alucinação maquínica é um termo usado na área técnica para indicar quando a máquina dá uma resposta confiante, mas sem qualquer justificativa nos dados de treinamentos. Quem já usou o ChatGPT sabe que ele inventa informações e sobretudo referências bibliográficas; mente convicto de que está certo.

No tema “problematização do uso no ensino”, vale conferir as colunas de Ronaldo Lemos na Folha de S.Paulo, especialmente esta. “Na minha aula no Schwarzman College o uso do ChatGPT é obrigatório. Todos os trabalhos DEVEM ser feitos por ele. No entanto, a nota vai ser dada pela qualidade dos “prompts” que os alunos fizeram para chegar no resultado. Em outras palavras, vou dar a nota pela qualidade das perguntas, e não da resposta”. Em contrapartida, escolas públicas de Nova York proibiram o uso do ChatGPT. Escolas e Universidades dos Estados Unidos estão começando a repensar por completo seus métodos de ensino. “Antony Aumann, professor de filosofia na Universidade Northern Michigan, pensa em talvez abrir mão de redações em semestres subsequentes. Também pretende incluir o ChatGPT em suas aulas, pedindo aos estudantes que avaliem as respostas dadas pelo chatbot. “O que vai acontecer em sala de aula não será mais ‘aqui estão algumas perguntas –vamos discutir isso entre nós, seres humanos’”, disse ele, mas “alguma coisa como ‘e o que esse robô alienígena pensa sobre a questão?'”, como conta nesse texto do NY Times traduzido pela Folha de S.Paulo. No Brasil, o professor Márcio Carneiro, do LabCom da UFMA, está fazendo vários testes com o ChatGPT – um livro, gerado de modo experimental com o apoio do sistema da Open IA, chamado “Inteligência Artificial Generativa”, disponível pra download; e um curso, o primeiro do Brasil, de “Introdução ao Prompt Design”, onde se ensina do zero a gerar textos para várias finalidades e imagens usando ferramentas de IA, sobretudo MidJourney e o ChatGPT. Engenheiro de Prompt é a nova profissão do futuro – até que o futuro mude outra vez.

O Sciences Po, renomada universidade e centro de pesquisa francês, que teve Bruno Latour como criador de seu MediaLab, baniu o uso do ChatGPT sem evidenciar as fontes. Disse o comunicado da Instituição: “Sem referenciar de modo transparente, os alunos estão proibidos de usar o software para a produção de qualquer trabalho escrito ou apresentações, exceto para fins específicos do curso, com a supervisão de um líder do curso”. Mais do que banir, porém, o Sciences Po abriu a discussão sobre o Chat e outros sistemas de IA e determinou regras para seus usos baseados em três princípios:

_ Repensar com os professores os critérios de avaliação em prol da avaliação de competências – perante uma situação complexa, desenvolvendo um trabalho reflexivo pessoal e uma análise crítica aprofundada – em vez de uma verificação de conhecimentos.

_ Incluir ferramentas de IA nos exercícios propostos. Por exemplo, pedindo aos alunos que testem os limites da ferramenta corrigindo seus erros, verificando sua bibliografia ou examinando criticamente sua contribuição.

_ Oferecer cursos dedicados a estas ferramentas, para que os alunos tenham consciência das suas potencialidades e limitações.

Há também a discussão, claro, de mercado e concorrência. Diante da ameaça do ChatGPT, e dos testes que a Microsoft vem fazendo com o chat acoplado ao seu buscador (o Bing), o Google acelerou suas pesquisas na área e apresentou o Bard em Janeiro. A iniciativa  veio de uma diretriz geral do Google em focar seus investimentos em IA para concorrer com a Open IA e a Microsoft. O Bard é basicamente um chatbot alimentado por IA que foi projetado para ser usado em pesquisas – uma cópia do ChatGPT + Bing, portanto. Ou pelo menos era: diante dos erros em sua apresentação, que dizem especialistas custou R$100 bilhões de prejuízo em valor de mercado, a empresa tratou de desmentir que seria um buscador, mas na verdade uma outra coisa – que ninguém sabe bem o quê.

Rodrigo Ghedin, em sua coluna de 3 de março no Manual do Usuário: “O ChatGPT pode até se provar apenas uma moda passageira daqui a alguns meses, mas hoje é tido como o futuro, o que torna ameaça bastante real: trata-se do produto digital que mais rápido atingiu 100 milhões de usuários (em apenas dois meses) e, em paralelo, está chegando às pessoas de outras formas, em produtos de parceiros diversos, alguns de peso como a Microsoft e a Snap. Age como toda boa disrupção: mudando o campo de batalha. É difícil superar o Google no ato de devolver dez links relevantes e alguns anúncios numa página web após uma pesquisa. O ChatGPT troca esse paradigma por uma conversa, uma espécie de WhatsApp em que seu interlocutor é uma inteligência artificial em overdose após consumir boa parte do conhecimento já produzido pela humanidade — até meados de 2021, pelo menos”.

Há, por fim (e por hora), as questões mais problemáticas envolvendo as IAs. Elas envolvem, por exemplo, os vieses, “alucinações”, erros cometidos pelo ChatGPT e exploração de trabalhadores para “corrigir” manualmente as IAs, que nos fazem vislumbrar um cenário cada vez mais próximo de uma “Dark Digital Age”.O histórico de alucinação de cunho fascista das últimas IAs não é dos melhores; será diferente agora? Se sim, como? Quais as medidas regulatórias possíveis para que estas máquinas não virem monstros racistas, misóginos e propagadores de fake news? Há muita discussão no tema, especialmente sobre legislações possíveis. Na Europa está em discussão um projeto de lei de regulação dos sistemas de inteligência artificial (“AI Act”), proposto pela Comissão Europeia. Nos EUA, o governo Biden publicou o “Blueprint for an AI Bill of Rights”, um conjunto de princípios éticos sobre inteligência artificial. Há também um projeto de lei em andamento no Congresso americano, que busca regular as decisões automatizadas tomadas por meio de algoritmos. No Brasil, houve a aprovação do Projeto de Lei 21/20 e a criação de uma comissão de Juristas para discutir o tema e propor subsídios para um substitutivo, o que ocorreu após 9 meses de trabalho, em que foram ouvidos mais de 50 especialistas em audiências públicas multisetoriais e seminários internacionais. O resultado é um robusto relatório de 900 páginas pouco lido – mas que mereceria mais atenção. Laura Schertel Mendes, professora de Direito na UNB, comenta sobre ele e o processo de regulação nesse bom texto em O Globo.

Encaminho mais alguns links soltos de bons textos, revistas, que saíram nesses últimos meses sobre o tema:

_ Dossiê  Comunicação na Era da Inteligência Artificial: da ideologia neoliberal ao colonialismo de dados. Revista Fronteiras, Unisinos.

_ Nem Humanas Nem Artificiais: 10 pontos para entender a Chat GPT e as qualidades conectivas das hiper Inteligências Castells, Massimo De Felice.

_ André Lemos em sua newsletter no Substack: “O que fazemos, nos processos educativos é sugerir livros acadêmicos, artigos, romances para ler e pedir que se produza juízo crítico, reflexão, debate. Devemos fazer o mesmo com os sistemas de IA. Ninguém pensa hoje em banir os livros por poderem ser copiados, ou pela possibilidade de uma biblioteca substituir um professor. (…) Você conhece algum professor no seu dia-a-dia que não use o dispositivo informacional livro?”

_ Matéria de capa de fevereiro da Super Interessante: O futuro da Inteligência Artificial e o que vem depois do ChatGPT (com paywall).

Deixe um comentário

O seu endereço de e-mail não será publicado.

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Back to top
Disque:

info@baixacultura.org
@baixacultura