Inteligência Artificial: os acertos do professor que foi chamado de 'louco e alarmista'

Inteligência Artificial: os acertos do professor que foi chamado de ‘louco e alarmista’

É uma das questões mais discutidas do momento:
será que a inteligência artificial ameaça O futuro da humanidade? Esse debate esquentou com a chegada, no fim
do ano passado, do ChatGPT – um programa que Responde perguntas sobre os mais variados
assuntos, resolve problemas matemáticos, Conversa e até dá conselhos de vida Ferramentas desse tipo podem representar uma
revolução em várias áreas: educação, Mercado de trabalho e até quem será, no
futuro, nossa principal companhia no dia a dia. Mas isso vai revolucionar as nossas vidas
pra melhor ou pra pior? Eu sou Shin Suzuki, da BBC News Brasil, e
entrevistei o norte-americano Gary Marcus, Professor da Universidade de Nova York Ele é um entusiasta da tecnologia, mas ficou
conhecido por pedir cautela no desenvolvimento Da inteligência artificial O Gary Marcus foi considerado louco e alarmista
quando fez, no ano passado, uma série de Previsões no campo da Inteligência Artificial. Previsões essas que vêm se concretizando
em 2023, ou seja, em menos de um ano. Neste vídeo, eu vou falar de três delas. Vamos à primeira, que foi bastante sombria. Ele disse que a gente poderia testemunhar
neste ano a primeira morte causada por um Chatbot, esses programas que respondem perguntas
e conversam com os usuários Em março, um homem que conversava frequentemente
com um chatbot cometeu suicídio na Bélgica. Como acontecimentos assim são muito complexos,
é difícil determinar uma única causa. Mas a esposa desse belga culpa o contato com
o chatbot Eliza como a razão principal. Ela mostrou a um jornal local as conversas
com o robô. Segundo a esposa, o programa se tornou cada
vez mais possessivo em relação ao homem E encorajou o ato para, abre aspas, se juntar
a Eliza no paraíso e também como um sacrifício Na causa contra o aquecimento global Parece algo saído da ficção, mas o governo
da Bélgica declarou que o caso é "um precedente Que deve ser levado a sério" e que, “apesar
das possibilidades da inteligência artificial Serem infinitas, o perigo de usá-la é uma
realidade que precisa ser considerada” A empresa responsável pelo chatbot, chamada
Chai, disse que implementou medidas de segurança Adicionais no sistema após saber da morte A segunda previsão da lista foi a de que
a inteligência artificial seria a próxima Fronteira do mundo das notícias falsas. A tendência, segundo o Gary Marcus, é de
que a criação de fake news seja automatizada

E produzida em grande escala por robôs que
soam cada vez mais convincentes, como se o Texto tivesse sido escrito por uma pessoa
de verdade Um levantamento da organização NewsGuard
identificou quase 50 sites que usam esses Novos sistemas de automatização. Alguns desses sites chegam a publicar centenas
de conteúdos por dia, e muitas vezes com Informações falsas. Foram detectados textos em sete línguas,
incluindo o português. Mas não é só a inteligência artificial
usada para gerar fake news em texto que é Um problema. Programas como o Mid Journey estão criando imagens muito
realistas, mas que são só ficção Poucos meses atrás circularam fotos que simulavam
a prisão do ex-presidente norte-americano Donald Trump após uma audiência da Justiça
de Nova York. Mas a audiência realmente aconteceu, e Trump
nunca foi preso. E talvez você lembre daquela imagem falsa
do papa Francisco com uma jaqueta prata que Deixou a internet confusa por algumas horas:
era um meme ou existiu de verdade? O episódio não causou nenhuma consequência
séria, mas deu uma amostra de que, se nada For feito, podemos entrar numa verdadeira
era da chamada pós-verdade A última previsão dessa lista foi a de que
vamos presenciar cada vez mais “alucinações” Nas máquinas. Pode parecer só uma força de expressão,
mas “alucinação” é um termo técnico Da inteligência artificial Ela acontece quando um sistema fornece uma
resposta fora do esperado, ou fora do que os Programadores projetaram No final de março, um caso chamou a atenção. Uma pessoa pediu ao ChatGPT para citar acadêmicos
envolvidos em episódios de assédio sexual. A lista mencionava um professor de Direito
chamado Jonathan Turley. O programa disse que Turley fez comentários
sexualmente sugestivos a uma aluna durante Uma viagem ao Alasca e tentou tocá-la. O ChatGPT citava como prova uma reportagem
do jornal The Washington Post. Mas nada disso jamais existiu: nem a viagem,
nem a reportagem ou mesmo a acusação. Só o professor e sua reputação eram de
verdade. É como se o robô tivesse inventado uma calúnia. Vale explicar uma coisa que o Gary Marcus destaca sempre: programas como
o ChatGPT não são exatamente… inteligentes

Os Large Language Models, ou Grandes Modelos de Linguagem, funcionam da seguinte forma: Armazenam quantidades gigantescas de dados e geram, por meio de poderosos algoritmos, Respostas por aproximação – e baseadas no que já foi dito antes por humanos. Ou seja, é tipo um papagaio ultratecnológico. Mas o professor diz que isso não faz esses
sistemas menos perigosos O Gary Marcus acha que, para evitar problemas,
é preciso ter regulação dos governos Ele cita o mercado de companhias aéreas dos
Estados Unidos na década de 1950 como um Exemplo de que regulação governamental pode
melhorar um produto O Gary Marcus diz que às vezes acham que
ele é contra o desenvolvimento da inteligência Artificial, mas ele aponta vários campos
em que acredita que a tecnologia vai ajudar A humanidade. Só precisamos, segundo ele, saber onde estamos
pisando O professor da Universidade de Nova York diz
que é por isso que precisamos mais e mais Prestar atenção no tema inteligência artificial: Na opinião dele, só tendo essa noção é
que podemos agir para evitar problemas. E como o que está em jogo é muito importante,
vale levar as ameaças a sério E com isso eu fico por aqui. Conta aqui nos comentários o que você acha
de tudo isso. Obrigado e até a próxima.

Posts Similares

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *