fbpx
LOADING

Digite para procurar

Yuval Harari e CEO da Huawei debatem futuro da tecnologia em Davos

Filipe Oliveira
Compartilhar

Yuval Noah Harari, autor de ‘Sapiens’, e Ren Zhengfei, fundador da Huawei, debateram futuro da inteligência artificial e a corrida tecnológica entre China e EUA em painel no Fórum Econômico Mundial  

De um lado, Yuval Noah Harari, historiador e autor dos livros ‘Sapiens’ e ’21 Lições para o Século 21”, conhecido por seus alertas sobre os perigos do avanço tecnológico descontrolado. Do outro, Ren Zhengfei, fundador e CEO da Huawei, uma das principais empresas de tecnologia do mundo, que figura na lista negra de organizações que supostamente ameaçam a segurança dos Estados Unidos.

Os dois se encontrarem em um painel sobre a corrida tecnológica no Fórum Econômico Mundial, em Davos (Suíça). Confira a seguir os principais pontos desse debate:

O poder dos dados

“Hoje em dia, você não precisa de armas para conquistar um país. Agora, existem os dados e o fenômeno do colonialismo por dados”, comentou Harari. De acordo com o historiador, a revolução da inteligência artificial e a revolução biotecnológica darão ainda mais poder para líderes da indústria e o estado. “Isso realmente mudará o futuro da humanidade e da vida porque as novas tecnologias dão a algumas empresas e governos a possibilidade de hackear seres humanos.”

Hackeando seres humanos

“Para hackear seres humanos, você precisa de muito conhecimento biológico, muito poder computacional e especialmente muitos dados”, analisou o professor. Segundo Harari, quando atingirem esse ponto, as empresas e governos poderão conhecer os indivíduos melhor do que eles mesmos. “Vão saber mais do que eu sobre minha condição de saúde, minhas fraquezas mentais e minha história de vida. Quando se atinge esse ponto, a implicação é que podem prever e manipular minhas decisões.”

Mas para Ren Zhengfei, fundador e CEO da Huawei, isso não deve acontecer tão cedo. “Pessoalmente, acho que as ideias do senhor Harari sobre corpos humanos sendo hackeados e eletrônicos sendo incorporados no corpo humano não devem se tornar realidade em 20 ou 30 anos”, avaliou o executivo. “O uso mais importante da inteligência artificial (IA) é para produção, ganhos de eficiência e criação de riqueza.”

Bomba atômica tecnológica

Zhengfei disse acreditar que os seres humanos usarão as novas tecnologias para “beneficiar a sociedade e não destruí-la” e comparou a IA a uma bomba atômica. “Quando eu tinha 7 anos, o maior medo que as pessoas tinham era de bombas atômicas. Mas hoje vemos enormes benefícios da energia atômica e da aplicação da radiação em medicina”, comentou. “Existem alguns temores sobre a inteligência artificial, mas não se deve exagerar. A IA não é tão danosa quanto uma bomba atômica.”

Harari considerou pertinente a comparação do executivo. “A comparação com a bomba atômica é importante. Nos ensina que quando identificamos uma ameaça em comum, isso pode nos unir para criar leis e prevenir o pior. Foi o que aconteceu durante a Guerra Fria”. Mas ponderou. “O problema é que com a IA o perigo não é tão óbvio. Todos sabem que quando se usa uma bomba atômica é o fim do mundo. Você não pode vencer uma guerra nuclear. Mas muitos pensam que se pode vencer uma guerra armamentista de inteligência artificial.”

China x EUA 

“Atualmente, a corrida [armamentista tecnológica] é entre Beijing e São Francisco [onde está o Vale do Silício]. Acho que Washington [onde está a Casa Branca] não entende totalmente as implicações do que está acontecendo, mas São Francisco se mantém próxima porque precisa do apoio do governo”, analisou Harari. “O resultado dessa guerra armamentista irá moldar como todos no planeta vão viver em 20 ou 50 anos: humanos, outros animais e novos tipos de entidades.”

Contra-ataque civil  

Ao final do debate, Harari foi questionado sobre o que pessoas comuns poderiam fazer em um cenário com empresas e governos tão poderosos. “Alguns de nós, especialmente técnicos e engenheiros, podem fazer um tipo oposto de tecnologia para vigiar os governos e as grandes empresas”, sugeriu o historiador. “Se eles gostam tanto de vigiar, não vão se importar que os cidadãos os vigiem. Penso, por exemplo, em uma IA que vigie atos de corrupção dos governantes.”

Tags:
Filipe Oliveira

Editor do #Trendings.

Deixe um comentário

Your email address will not be published. Required fields are marked *