Uma visão alternativa sobre os chatbots. O texto é de Cathy O'Neal, autora de Weapons of Math Destruction:
Ultimamente, tem havido uma enorme quantidade de confusão na imprensa de tecnologia em torno da mais nova geração de chatbots, sendo a versão ChatGPT a mais celebrada e / ou temida.
Não acho que a celebração ou o medo sejam justificados.
Antes de tudo, não precisamos temer que o ChatGPT substitua os seres humanos. Não tem um modelo para a verdade; é simplesmente escrever palavras e frases semelhantes aos padrões observados no discurso histórico em que foi alimentado. Portanto, em outras palavras, não está realmente respondendo a uma pergunta de maneira ponderada ou relevante. Qualquer tipo de consideração que possa ser observada em sua produção é uma combinação da sabedoria humana incorporada em seus dados de treinamento e do crédito projetado que tendemos a dar aos outros quando os ouvimos tentando formular pensamentos.
Mas e os alunos trapaceando usando o ChatGPT em vez de escrever por conta própria? O problema da tecnologia é que ela está interferindo nas proxies muito fracas que temos de medir a aprendizagem dos alunos, a saber, trabalhos de casa e testes. A verdade é que a internet permitiu que os alunos burlasse a lição de casa por um longo tempo e, nesse caso, muitos testes, e agora eles têm uma maneira um pouco melhor (embora ainda imperfeita) de trapacear. É apenas mais um lembrete de que é realmente difícil saber o quanto alguém aprendeu alguma coisa e, especialmente, se não estamos conversando diretamente com eles, mas contando com algum sistema automatizado ou quase automatizado ampliado para medir isso para nós. Suponho que haverá muito mais exames orais individuais no futuro, pelo menos quando se trata de testes de alto risco de conhecimento [o de instituições de ensino sérias]. E, nesse caso, haverá menos testes, porque muitos tipos de "conhecimento" que os humanos precisaram memorizar podem não ser necessários se a Internet estiver sempre disponível.
Em seguida, acho que também não temos motivos para comemorar. Não há sabedoria no ChatGPT ou em outro assim. Para ilustrar esse ponto, considere Galactica, uma IA que foi introduzida e depois comprada pela Meta, empresa controladora do Facebook. Galactica foi treinado em artigos científicos para produzir parágrafos científicos. Foi muito bom nisso.
Galactica deveria ajudar os cientistas a escrever seu artigo e ajudar todos a procurar conhecimento científico. Às vezes funcionava, mas muitas vezes fazia merda.
De qualquer forma, aqui está uma coisa que nunca fará: criar nova ciência. E é por isso que não há nada aqui para se animar.
Outra maneira de dizer é que a Galactica pode nos mostrar o que é "fácil" ao escrever artigos científicos: o idioma, o jargão, o estilo autoritário da terceira pessoa etc. versus o que é difícil: as novas idéias. Galactica pode fazer todas as coisas fáceis, mas nenhuma das coisas difíceis, e por que devemos ficar impressionados??
[Traduzido pelo Vivaldi] [Fonte original aqui]. Foto:
Nenhum comentário:
Postar um comentário