Hélio Schwartsman
Computadores, ao papagaiar nossas instanciações, acabam reproduzindo nossos vieses
Os não tão novos se lembrarão de quão ruins eram os primeiros programas de computador que se propunham a traduzir textos de um idioma para outro. Muita coisa não fazia sentido e, do que fazia, grande parte estava simplesmente errada. Línguas naturais encerram uma carga quase proibitiva de ambiguidades e polissemias. O panorama começou a mudar quando os programadores abandonaram a estratégia linguisticamente mais intuitiva de traba lhar em cima de listas de palavras (dicionário) combinadas com as regras sintáticas e partiram para a força bruta.
Inspirados nas ideias de Claude Shannon (1916-2001) e sua teoria da informação e com acesso a megabancos de dados de documentos bilíngues, com bilhões e bilhões de frases, os cientistas resolveram apostar em métodos estatísticos, que analisam todas as possibilidades de traduções registradas, calculam suas frequências e a partir daí tentam adivinhar a expressão "certa". Funcionou, e programas como o ChatGPT e seus concorrentes são os filhotes desses algoritmos linguísticos ancestrais.
Vejo aí duas lições a extrair. A primeira é que o sucesso do método revela que clichês e repetições estão muito mais profundamente entranhados em nossas existências do que estaríamos prontos a admitir. Gostamos de nos imaginar como seres criativos, mas a verdade é que somos tão previsíveis que, quando computadores modelam nossas repetições e agem segundo seus padrões, eles se passam bem por humanos, sendo aprovados sem maiores dificuldades no teste de Turing.
A segunda é que os computadores, ao papagaiar nossas instanciações, acabam reproduzindo nossos vieses. É lamentável, mas não chega a ser uma surpresa que esses programas linguísticos incorram em racismo, delírios, explosões do que parece ser raiva, inventem citações e até mesmo fatos. Como diria Nietzsche, isso é "humano, demasiado humano".
Fonte: Folha de S.Paulo
Nenhum comentário:
Postar um comentário