- Em entrevista ao programa “60 Minutes” da CBS que foi ao ar no domingo, o CEO do Google, Sundar Pichai, deu a entender que a sociedade não está pronta para o rápido avanço da IA.
- Pichai disse que as leis que protegem os avanços da IA ”não são para uma empresa decidir” sozinha.
- Alertando sobre as consequências, ele disse que a IA afetará “todos os produtos de todas as empresas”.
O CEO do Google, Sundar Pichai, fala em um painel no CEO Summit of the Americas organizado pela Câmara de Comércio dos EUA em 9 de junho de 2022 em Los Angeles, Califórnia.
Ana Moneymaker | imagens falsas
O CEO do Google e da Alphabet, Sundar Pichai, disse que “todos os produtos de todas as empresas” serão afetados pelo rápido desenvolvimento da IA, alertando que a sociedade deve se preparar para tecnologias como as que já lançou.
em um entrevista com “60 Minutes” da CBS transmitido no domingo que tinha um tom de preocupação, o entrevistador Scott Pelley testou vários projetos de IA do Google e disse que estava “sem palavras” e sentiu que era “perturbador”, referindo-se às capacidades humanas de produtos como o chatbot.
“Precisamos nos adaptar como sociedade”, disse Pichai a Pelley, acrescentando que os empregos que seriam interrompidos pela IA incluiriam “trabalhadores do conhecimento”, incluindo escritores, contadores, arquitetos e, ironicamente, até engenheiros de software.
“Isso terá um impacto em todos os produtos de todas as empresas”, disse Pichai. “Por exemplo, você poderia ser um radiologista, se pensar daqui a cinco ou dez anos, terá um colaborador de IA com você. Ele vem de manhã, digamos que você tenha cem coisas para resolver, você pode dizer , ‘estes são os mais sérios que você precisa ver primeiro.'”
Pelley viu outras áreas com produtos avançados de IA dentro do Google, incluindo o DeepMind, onde os robôs jogavam futebol, que aprenderam sozinhos, em vez dos humanos. Outra unidade mostrou robôs reconhecendo itens em um balcão e dando a Pelley uma maçã que ele pediu.
Alertando sobre as consequências da IA, Pichai disse que a escala do problema de desinformação e notícias e imagens falsas será “muito maior”, acrescentando que “pode causar danos”.
No mês passado, a CNBC informou que, internamente, Pichai disse aos funcionários que o sucesso de seu recém-lançado programa Bard agora depende de testes públicos, acrescentando que “as coisas vão dar errado”.
O Google lançou seu AI chatbot Bard como um produto experimental para o público no mês passado. Seguiu-se o anúncio da Microsoft em janeiro de que seu mecanismo de busca Bing incluiria a tecnologia GPT da OpenAI, que chamou a atenção internacional após o lançamento do ChatGPT em 2022.
No entanto, o medo das consequências do rápido progresso também atingiu o público e os críticos nas últimas semanas. Em março, Elon Musk, Steve Wozniak e dezenas de acadêmicos pediram uma pausa imediata no treinamento de “experimentos” envolvendo grandes modelos de linguagem que eram “mais poderosos que o GPT-4”, o principal LLM da OpenAI. Mais de 25.000 pessoas assinaram a carta desde então.
“A pressão competitiva entre gigantes como o Google e startups das quais você nunca ouviu falar está impulsionando a humanidade para o futuro, esteja ela pronta ou não”, comentou Pelley no segmento.
O Google lançou um documento delineando “recomendações para regular a IA”, mas Pichai disse que a sociedade deve se adaptar rapidamente com a regulamentação, leis para punir o abuso e tratados entre nações para tornar a IA segura para o mundo, bem como as regras que “se alinham com os valores humanos, incluindo a moralidade. “
“Não cabe a uma empresa decidir”, disse Pichai. “É por isso que acho que desenvolver isso deve incluir não apenas engenheiros, mas também cientistas sociais, especialistas em ética, filósofos, etc.”
Questionado se a sociedade está pronta para a tecnologia de IA como Bard, Pichai respondeu: “Por um lado, acho que não, porque a velocidade com que podemos pensar e nos adaptar como instituições sociais, em comparação com a velocidade com que a tecnologia evolui, parece ser uma incompatibilidade.”
No entanto, ele acrescentou que está otimista porque, em comparação com outras tecnologias do passado, “o número de pessoas que começou a se preocupar com as implicações” o fez desde o início.
Começando com uma mensagem de seis palavras de Pelley, Bard criou uma história com personagens e um enredo que ele inventou, incluindo um homem cuja esposa era incapaz de conceber e um estranho sofrendo um aborto espontâneo e ansiando por um fim. “Raramente fico sem palavras”, disse Pelley. “A humanidade em velocidade sobre-humana foi um choque.”
Pelley disse que perguntou a Bard por que ele ajuda as pessoas e ele respondeu “porque isso me deixa feliz”, o que Pelley disse que o surpreendeu. “Parece que Bard está pensando”, disse ele a James Manyika, vice-presidente sênior do Google contratado no ano passado como chefe de “tecnologia e parceria”. Manyika respondeu que Bard não é senciente e autoconsciente, mas pode “se comportar como” ele.
Pichai também disse que Bard tem muitas alucinações depois que Pelley explicou que perguntou a Bard sobre a inflação e recebeu uma resposta instantânea com sugestões de cinco livros que, quando ele verificou posteriormente, na verdade não existiam.
Pelley também pareceu preocupado quando Pichai disse que há “uma caixa preta” com chatbots, onde “você não entende completamente” por que ou como certas respostas surgem.
“Você não entende completamente como isso funciona, e mesmo assim você o liberou para a sociedade?” perguntou Peley.
“Deixe-me colocar desta forma, acho que também não entendemos completamente como funciona a mente humana”, respondeu Pichai.