Por: Rodney Brooks (*)
Fonte: MIT Technology Review, Cambridge, Massachusetts
O futuro da Inteligência Artificial e da robótica está gerando um frenesi. Que capacidades poderão ter essas máquinas? Daqui a quanto tempo? Irão destruir muitos postos de trabalho?
O site de análise financeira Market Watch publicou recentemente um artigo segundo o qual os robôs irão se apoderar de metade dos postos de trabalho nas próximas duas décadas. O artigo era acompanhado por um gráfico que ilustrava a variação dos números.
Ora, isto é grotesco! (Tento manter a postura profissional enquanto escrevo, mas às vezes… O artigo adianta, por exemplo, que, nos Estados Unidos da América, em um milhão de pessoas afetas a tarefas de manutenção só 50 mil permanecerão no ativo, porque os robôs farão o seu trabalho.
Ora, quantos robôs existem que sabem efetivamente desempenhar estas tarefas? Zero. Quantas foram as demonstrações que provaram as aptidões dos robôs neste domínio? Zero. O mesmo se aplica a 90% dos empregos que necessitam da presença física no local e que estariam supostamente em perigo.
ARTE DIGITAL – Num artigo publicado em 2017 na biblioteca digital arXiv_ peritos em Inteligência Artificial (IA) descreveram a forma como um algoritmo foi capaz de criar o sistema CAN (Creative Adversarial Networks) para imitar os estilos de pintura e mesmo criar novos, revela a revista Nautilus. “Os humanos foram incapazes de distinguir entre as obras produzidas pelo sistema e as obras de artistas contemporâneos, expostas em galerias de renome”, sublinham os autores. Em fevereiro de 2016, um outro tipo de IA, desta vez musical, batizado Aiva, compôs um solo para piano. Em setembro do mesmo ano, saiu o seu primeiro álbum tornando-a assim a primeira IA a alcançar o estatuto de Compositor. CAN e Aiva tinham sido previamente “treinados” na análise de grandes quantidades de dados: no caso do primeiro, com quadros preexistentes, e, no caso da segunda, com músicas que já tinham sido compostas.
Previsões errôneas nos fazem temer coisas que não se concretizarão. É o caso do desaparecimento em grande escala de postos de trabalho, da singularidade (uma inteligência superior capaz de se melhorar, que resultaria da aceleração do processo tecnológico) ou do advento de uma Inteligência Artificial (IA) com valores diferentes dos nossos e com capacidade para nos destruir. Nada disto é verdade, mas qual a razão para as pessoas se deixarem enganar? Identifiquei sete fatores principais.
Superestimar, subestimar
Roy Amara foi um dos cofundadores do Instituto do Futuro (IFTF) em Palo Alto (Califórnia, EUA), coração intelectual de Silicon Valley. Mas é sobretudo reconhecido pelo seu adágio agora conhecido como a Lei de Amara: “Temos tendência para superestimar a incidência de uma nova tecnologia no curto prazo e para a subestimar a longo prazo”. Um otimista e um pessimista interpretarão esta frase simples de modo diferente.
O GPS (acrônimo de Global Positioning System / Sistema de Posicionamento Global) americano é um excelente exemplo dos dois aspetos da Lei de Amara. A partir de 1978 foi colocada em órbita uma frota de 24 satélites (atualmente existem 31, contando com os equipamentos de substituição). O objetivo primordial do GPS era permitir às forças armadas norte-americanas fazer bombardeios aéreos mais precisos. Mas esta iniciativa foi adiada diversas vezes na década de 1980. Foi preciso esperar pela primeira Guerra do Golfo, em 1991, para que o GPS servisse o seu objetivo primordial. Só depois disso os militares norte-americanos admitiram a sua utilidade. Agora, o GPS está na fase que a Lei de Amara define como a de longo prazo e é utilizado para fins que seriam inimagináveis nos primórdios dessa tecnologia. O meu relógio da Apple utiliza o GPS quando faço jogging e ele me geolocaliza com tal precisão que sabe de que lado da rua estou. O tamanho deste aparelho e aquilo que me custou seriam algo de inconcebível para os engenheiros dos primórdios dessa tecnologia. Esta permite coordenar experiências de física em todo o planeta e desempenha um papel central na sincronização da rede elétrica dos Estados Unidos da América. O GPS permite assegurar que a frequência na rede seja a mesma, qualquer que seja o local onde se efetua a medição. Também permite aos negociantes que fazem transações de alta frequência – os que efetivamente controlam as Bolsas – evitar erros de temporização catastróficos. É usada na navegação e pilotagem de aviões, tanto pequenos como grandes. E permite aos guardas vigiar presos em liberdade condicional.
Como se isto não bastasse. determina que sementes serão usadas em cada parte do campo, em várias regiões do globo. Além de fazer o seguimento dos transportes de mercadorias e de passageiros e avaliar o desempenho dos condutores.
Newton ficaria surpreendido por um objeto tão pequeno como um iPhone conseguir produzir cores tão vivas na obscuridade de uma capela.
O GPS foi criado com um objetivo específico mas extravasou-o de tal forma e invadiu tantos aspetos da nossa vida que sem ele estaríamos perdidos: teríamos frio, fome e talvez morrêssemos.
A mesma coisa aconteceu com outras tecnologias desenvolvidas nas últimas três décadas: a promessa de uma revolução, a decepção e depois uma lenta melhoria de resultados que acabam por ultrapassar os objetivos definidos inicialmente. Isto é verdade para a informática, o sequenciamento do genoma humano, a energia solar e eólica ou a entrega de compras ao domicílio.
A Inteligência Artificial foi constantemente superestimada nas décadas de 60 e 80 e ainda o continua a ser. Mas as perspectivas a longo prazo são seguramente subestimadas. Como definir longo prazo? Eis como a revolução da IA se desenrolará mais devagar do que se pensa.
O pensamento mágico
Quando eu era adolescente, Arthur C. Clarke era um dos principais autores de ficção científica, juntamente com Robert A. Heinlein e lsaac Asimov. Clarke também era inventor, jornalista científico e futurista. Entre 1962 e 1973 ele formulou três adágios, chamados, hoje, as leis de Clarke:
“Quando um velho sábio estima que qualquer coisa é possível, tem quase sempre razão. Mas quando afirma que qualquer coisa é impossível, provavelmente está errado.”
“A única forma de descobrir os limites das possibilidades é aventurar-se para o além, para o impossível.”
“Toda a tecnologia suficientemente avançada é indistinguível da magia.”
Pessoalmente, eu deveria desconfiar da segunda frase da primeira lei, porque sou bastante mais prudente do que a maioria das pessoas sobre o tempo que falta para que a IA se torne onipresente. Mas é importante refletir bastante sobre a terceira lei de Clarke.
Imaginemos uma máquina do tempo que permitisse trazer Isaac Newton do final do século 17. Iríamos convidá-lo para um local que lhe é familiar: a capela do Trinity College da Universidade de Cambridge (Reino Unido).
Mostraríamos a Newton não uma maçã mas um produto da Apple (palavra que significa maçã, em inglês). Tiraríamos um iPhone do bolso e mostraríamos a ele a tela iluminada e cheia de ícones. Newton descobriu que a luz branca era composta por um espectro de diferentes cores ao fazer passar um raio de sol através de um prisma, reconstituindo-o em seguida. Ficaria seguramente surpreendido por um objeto tão pequeno conseguir produzir cores tão vivas na obscuridade da capela.
Mostraríamos a seguir um filme rodado nos campos ingleses, acompanhado pela música litúrgica que ele bem conhecia. Mostraríamos a ele uma página na internet onde estão publicadas as 500 folhas de uma cópia anotada da sua obra-prima “Princípio”, e ensinaríamos a ele a deslizar o dedo para ampliar a imagem na tela.
Nas tecnologias do futuro é preciso ter muito cuidado quando se utilizam argumentos relativos à magia
Conseguiria Newton compreender como é que este pequeno aparelho faz tantas coisas? É verdade que ele inventou o cálculo infinitesimal (ou integral) e explicou a ótica e a gravidade. Mas nunca soube distinguir entre química e alquimia. Acredito que ficaria siderado e incapaz de arriscar fazer uma qualquer descrição do aparelho. Aos seus olhos, o iPhone encarnaria o oculto, um assunto que sempre o fascinou. E seria incapaz de o distinguir da magia. Convém não esquecer que Newton era extremamente inteligente. Se uma coisa é magia, torna-se muito difícil definir os seus limites.
A seguir, poderíamos mostrar a Newton que o aparelho pode funcionar como lanterna, tirar fotografias, gravar sons e imagens ou trabalhar como lupa ou espelho. Explicaríamos que faz cálculos aritméticos muito depressa e com muitas casas decimais. Além de poder contar os seus passos e permitir falar com pessoas em todo o mundo, ali mesmo, a partir do interior da capela.
Que outras funções associaria Newton a este aparelho? Os prismas funcionam até ao infinito. Newton talvez pensasse que o mesmo acontece com o iPhone, não sabendo que temos de trocar de aparelho frequentemente.
Não esqueçamos que Newton vem de uma época onde ainda faltavam 100 anos para o nascimento de Michael Faraday (pioneiro do eletromagnetismo) e não tinha conhecimentos científicos sobre eletricidade. Se um iPhone pode ser uma fonte de luz sem fogo, também conseguirá transformar chumbo em ouro?
É uma questão com a qual somos confrontados desde que se começou a sonhar com tecnologia. Se a invenção está demasiado longe de tudo o que conhecemos e compreendemos, somos incapazes de compreender os seus limites. E, se não se consegue distinguir da magia, tudo o que podemos dizer a seu propósito é fantasia.
Mentes pirateadas
Podem os nossos pensamentos, decisões e mesmo emoções serem manipulados, contra a nossa vontade, por uma Inteligência Artificial sem escrúpulos? É isto que alguns temem com o aparecimento de empresas especializadas em interfaces cérebro-máquina, como a Neuralink. O objetivo desta empresa, criada pelo magnata Elon Musk, o célebre patrão da Tesla e da SpaceX, é desenvolver componentes eletrônicos que possam ser integrados diretamente no nosso cérebro para melhorar a memória ou permitir comunicar diretamente com computadores.
“Como resultado da evolução tecnológica, estamos empenhados num caminho que nos leva a um mundo onde comunicaremos uns com os outros através do pensamento, e onde, graças a poderosos sistemas de cálculo, as pessoas interagirão mais facilmente com o mundo, e as suas capacidades mentais e físicas serão substancialmente melhoradas”, escrevem na revista Nature, 25 peritos em neurociências.
Inteligência Artificial e ética
Para se evitar efeitos nefastos que possam advir destas tecnologias, “o grupo de cientistas definiu quatro prioridades éticas que devem ser abordadas: a vida privada e o consentimento, o controle e a identidade, o melhoramento da humanidade e a discriminação”, resume a revista Newsweek.
No entanto, os investigadores referem na revista Nature que “Poderão se passar anos e até décadas até que as interfaces neurais diretas e outras neurotecnologias façam parte do nosso quotidiano”.
Portanto, não vale a pena entrar em pânico. Ainda estamos muito longe de ter as nossas mentes pirateadas.
Esta é uma questão com a qual sou regularmente confrontado nos debates: determinar se deveremos ter medo de uma Inteligência Artificial forte (ou AGI, acrônimo de “artificial general intelligence”). Ou seja, de agentes autônomos que funcionariam como seres (animais ou humanos, dotados de inteligência e consciência). Como ainda não conhecemos todas as suas capacidades, ignoramos se a AGI irá mesmo existir. Esse é o grande sonho – o que sempre me motivou a trabalhar nos domínios da robótica e da IA – mas, no seu estado atual, a investigação da AGI ainda não atingiu o ponto de caráter “forte” (capaz de simular comportamentos humanos ou animais) ou a possibilidade de criar uma entidade autônoma.
A investigação parece estar enfrentando os mesmos problemas de bom senso que têm bloqueado a IA no último meio século. Todos os elementos de prova de que disponho mostram que globalmente não sabemos como conceber uma IA. As suas propriedades são desconhecidas. É por isso que no plano da retórica ela parece mágica e infinitamente poderosa.
Mas nada no Universo é infinito. Cuidado com os argumentos relativos à magia, quando se trata de tecnologias do futuro. É o tipo de argumento que não pode ser refutado, por uma simples razão: assenta em crenças, não em factos científicos.
Monopólio do humor
Uma Inteligência Artificial pode ter graça? Várias equipes a nível mundial debruçam-se sobre esta pergunta. Eric I-Iorvitz e Dafna Shahaf (investigadores, respetivamente, da Microsoft e da Universidade Judaica de Jerusalém), em colaboração com o antigo artista gráfico da revista New Yorker Robert Mankoff, demonstraram recentemente que uma IA consegue identificar coisas engraçadas (entre uma série de cartoons), indica a revista Nautilus.
Mas ser capaz de identificar coisas engraçadas não significa capacidade para as fazer… Cientistas da Universidade de Marquette, Milwaukee (EUA) desenvolveram o Zoei (Zestful Outlook on Emotional Intelligence), um robô que tenta contar anedotas, distingue expressões faciais, reconhece e grava as reações do público às anedotas precedentes e, funcionando por tentativa e erro, melhora pouco as suas capacidades.
Por enquanto, o Zoei ainda não foi testado num cara a cara. Ainda estamos muito longe de poder assistir a um espetáculo humorístico de uma IA.
“O humor não é evidente. Nem sequer para os humanos”, constata na revista New Scientist Mark Riedl, investigador do Instituto de Tecnologia da Geórgia, em Atlanta, que trabalha em IA capazes de contar histórias. O humor recorre a referências da cultura popular, à sátira social, à ironia, à empatia, etc.
“Em outras palavras, para compreender e fazer humor é necessária uma grande dose de inteligência”, explica à New Scientist Piotr Mirowski investigador da Universidade de Alberta, que experimenta, com o seu colega Korg Mathewson, a ALEX (Artificial Language Experimental), uma IA capaz de interagir com ele no palco de teatros. “A ALEX tenta compreender o que dizem os seus parceiros humanos, imaginar uma resposta o mais rapidamente possível e fazer algum comentário engraçado utilizando um sintetizador de voz”, descreve a New Scientis. O objetivo é se produzir um espetáculo cômico. Em conjunto, já se apresentaram em festivais de comédia, com público de em média 3 mil pessoas, cerca de trinta vezes. De uma forma geral, foram bem sucedidos. Mas os investigadores estão conscientes de que as pessoas que se deslocam a este tipo de festival esperam ver coisas engraçadas, o que os torna mais receptivos aos esforços da IA. O fato de a IA ser encarnada por um pequeno robô já coloca o público do lado dela.
Suponhamos que uma pessoa nos diz que uma determinada fotografia representa pessoas jogando bola num parque. Pode depreender-se daí que saberá responder a questões relacionadas: qual a forma de uma bola? A que distância pode ser lançada? Pode se comer uma bola? Quantas pessoas podem jogar bola ao mesmo tempo? Um bebê de três meses pode jogar bola? Pode-se jogar bola se fizer frio?
A aprendizagem automática é muito instável e exige grande preparação por parte dos investigadores e engenheiros, um código específico, conjuntos de dados e um método. Um computador capaz de associar uma imagem à legenda “pessoas jogando bola no parque” não tem qualquer capacidade de responder a este tipo de perguntas. Apesar de conseguirem legendar vários tipos de imagens, são incapazes de responder a qualquer uma daquelas perguntas. ignoram o que é uma pessoa, que os parques quase sempre ficam no exterior das construções, que as pessoas têm idade, que a situação meteorológica não se limita à sugerida pela luz da fotografia, etc.
Isto não significa que as máquinas sejam inúteis: são preciosas, por exemplo, para fazer funcionar os motores de busca. Mas aqui está o X da questão. As pessoas ensinam um robô ou uma IA a fazer determinada tarefa. A partir daí extrapolam uma competência que seria normal em um ser humano. E aplicam essa generalização aos robôs ou à IA. As máquinas atuais têm aptidões extremamente limitadas. Por isso não lhes podemos aplicar quaisquer extrapolações humanas.
Palavras genéricas
Marvin Minsky (cientista norte-americano especialista em ciências cognitivas, pioneiro da IA, falecido em 2016) qualificava como palavras genéricas os termos muitos significados. “Aprender” é um bom exemplo, porque designa experiências muito variadas. Aprender a comer com talheres é muito diferente de aprender a melodia de uma canção. E aprender um código de sinais de trânsito não tem nada a ver com aprender a se orientar numa cidade.
Quando as pessoas descobrem que a aprendizagem automática (ou machine learning) progride muito depressa nesse ou naquele domínio, têm tendência a utilizar como modelo intelectual a forma como um humano aprenderia a dominar um novo assunto. Mas a aprendizagem automática é muito instável e exige muita preparação por parte dos investigadores ou engenheiros humanos, um código específico, conjuntos concretos de dados (ou seja, exemplos a fornecer à máquina para que esta “aprenda”) e um método de aprendizagem adaptado a cada nova problemática. A aprendizagem automática, tal como existe nos nossos dias, não tem nada a ver com a aprendizagem porosa que caracteriza os humanos, que podem progredir rapidamente num novo domínio sem precisarem de alterações cirúrgicas ou sem terem especificamente sido concebidos para esta ou aquela função.
Quando um computador vence um jogo de xadrez, as pessoas têm tendência a pensar que ele “joga” como um ser humano. Mas isso não é verdade
Quando as pessoas percebem que um computador pode vencer o campeonato mundial de xadrez (Deep Blue, em 1997) ou ser um dos melhores jogadores de Go (AlphaGo, em 2016), têm tendência a pensar que esse computador “joga” como qualquer ser humano. Na verdade, os programas aí instalados não fazem a mais pálida ideia de que se trata de um jogo e ignoram até mesmo que estão jogando. São muito pouco adaptáveis. Quando os humanos jogam, não ficam perturbados por pequenas alterações nas regras, ao contrário do AlphaGo ou do Deep Blue.
As palavras genéricas sugerem, erradamente, que as máquinas são iguais aos humanos na execução de algumas tarefas. Em parte porque os engenheiros – e pior, os meios de comunicação social que o dão a entender – querem enaltecer os avanços num determinado aspeto de um conceito genérico. A palavra-chave aqui é “aspecto”. E rapidamente se esquece este detalhe.
Os meios de comunicação social difundem a palavra genérica e veiculam uma imagem errada da IA e da iminência das inovações que se lhe seguem.
Autônomo, autodidata e bilingue
A tradução automática fez progressos consideráveis graças às redes de neurônios inspiradas no cérebro humano. “Mas para manter essas redes são necessárias grandes quantidades de dados”, comenta a revista Science, “milhões de traduções frase por frase para demonstrar como um humano faria o trabalho.”
É por isso que várias equipes de cientistas começaram a trabalhar na “aprendizagem não supervisionada”, ou seja, sem recurso à utilização de textos paralelos já traduzidos para praticar. Duas dessas equipes deverão apresentar os seus trabalhos na 6a Conferência Internacional dos Representantes do Ensino em 2018. Os métodos utilizados pelas duas equipes seguem o mesmo esquema: a Inteligência Artificial (IA) constrói o seu próprio dicionário bilingue sem auxílio de um instrutor humano que valide as suas suposições, “isto é possível porque as diferentes línguas têm uma forma semelhante de associar as palavras, explica a revista Science. Por exemplo, as palavras “mesa” e “cadeira” são frequentemente utilizadas em conjunto. E isto acontece em várias línguas. Se o computador fizer a cartografia destas ocorrências à moda de um grande atlas das estradas onde as palavras substituem as cidades, os mapas correspondentes aos diferentes idiomas serão relativamente semelhantes e apenas as palavras diferirão. As IA das duas equipes alcançaram um resultado de exatidão de 15 nas duas direções de tradução de francês/inglês.
“Estamos longe dos resultados do tradutor do Google que utiliza um método de aprendizagem supervisionado e alcança um resultado de cerca de 40, ou mesmo de um verdadeiro tradutor que consegue mais de 50, mas, mesmo assim, é melhor do que a tradução palavra a palavra”, sublinha esta revista científica. Segundo os investigadores, este sistema poderia ser melhorado utilizando técnicas “semi-supervisionadas” com o auxílio de milhares de frases já traduzidas para o processo de treinamento.
Crescimento exponencial
Muitas pessoas sofrem de um problema grave denominado “exponencialismo” . Quase todos conhecemos mais ou menos a Lei de Moore, segundo a qual os computadores se aperfeiçoarão constante e regularmente.
O que na verdade Gordon Moore afirmou foi que a capacidade dos processadores eletrônicos duplicaria todos os anos. Teve razão durante 50 anos, apesar de o espaço ter passado progressivamente de um para dois anos e de o crescimento estar se abrandando.
Duplicar a capacidade dos processadores permite aos computadores alcançar, continuamente, o dobro da velocidade. A capacidade dos dispositivos de armazenamento quadruplicou todos os anos. Esta curva de crescimento também melhorou a resolução dos equipamentos fotográficos digitais e multiplicou exponencialmente o número de pixels nas telas LCD (as telas de cristais líquidos que equipam, por exemplo, os smartphones e as televisões).
A Lei de Moore funcionou porque aplica uma pergunta de verdadeiro-falso a uma abstração digital. Nos circuitos existe carga ou diferença de potencial? A resposta continua a ser a mesma, à medida que os componentes ficam mais pequenos, mas até um determinado limite físico. Abaixo desse limiar comportam tão poucos eléctrons que os efeitos quânticos assumem o controle (por exemplo, os eléctrons que passam de um transmissor para outro, de forma aleatória, perturbam o seu bom funcionamento). Estamos atualmente nesta mesma situação com os componentes de silício.
Os que sofrem de exponencialismo arriscam-se a pensar que as funções exponenciais que utilizam para justificar os seus argumentos se prolongarão indefinidamente. Mas a Lei de Moore e outras regras semelhantes podem falhar porque, na sua origem, não eram verdadeiramente exponenciais.
Na década de 2000, fui responsável pelo Computer Science and Artificial Intelligence Laboratory (CSAIL) do MIT (Instituto de Tecnologia de Massachusetts) e precisei angariar fundos para 90 grupos diversos de investigação: tentei usar a argumentação do crescimento da memória interna dos iPods para demonstrar aos mecenas que as coisas continuariam a evoluir muito rapidamente.
Cenários hollywoodianos
Em vários filmes de ficção científica, produzidos em Hollywood, o mundo é muito semelhante ao nosso. São bem poucas as exceções. No filme “O Homem Bicentenário” (de 1999), Richard Martin – o protagonista, desempenhado por Sam Neill – senta-se à mesa para tomar o café-da-manhã e um robô humanoide (interpretado por Robin Willians) fala, anda e o serve. Durante a refeição, Richard lê um jornal. Um jornal! Impresso em papel. Nada de tablets, podcasts ou ligações neurais diretas à internet.
Muitos investigadores e analistas que se interessam por IA, em particular os pessimistas que adoram prever que a IA ficará incontrolável e matará os humanos, têm muito pouca imaginação. Esquecem-se que se um dia chegaremos a conceber máquinas assim tão inteligentes, o mundo não terá mudado assim tanto. Não seremos apanhados desprevenidos pela existência de superinteligências. Estas irão sendo aperfeiçoadas com o tempo e o nosso mundo ficará povoado por várias outras inteligências. Nessa altura, já teremos muita experiência no assunto. Muito antes que superinteligências maléficas tentem eliminar a nossa raça, haverá máquinas menos malignas e menos belicosas. Antes disso, existirão máquinas lamuriantes. E antes, ainda, existirão máquinas arrogantes e desagradáveis. Mudaremos o nosso mundo à medida que formos progredindo, porque adaptaremos o nosso ambiente às novas tecnologias e ajustaremos as próprias novas tecnologias. Não disse que não enfrentaremos desafios. Apenas afirmo que não serão repentinos e inesperados, como muitos acreditam.
Deus é um algoritmo
A era das novas tecnologias, em particular do automatismo em vários domínios, comporta o seu lote de medos e crenças. “Existe até mesmo quem pense que as máquinas se tornarão nossos novos deuses”, avisa o site Big Think. É o caso de Anthony Levandowski Este antigo engenheiro do Google, pioneiro da viatura autônoma (Wagmol) – acusado de ter transmitido segredos tecnológicos ao Uber -, levou a ideia tão longe que fundou uma religião dedicada à Inteligência Artificial (IA). Batizado Way of the Future (Caminho do Futuro), esse culto tem como objetivo “compreender, aceitar e venerar um princípio divino fundado sobre a Inteligência Artificial desenvolvida pelos programas e equipamentos informáticos”, detalham os estatutos da organização revelados pela revista online Backcchannel, especializada em ciência e tecnologia que está alojada nos servidores da revista Wired. Depois de passar muitas horas com Anthony Levandowski, o jornalista ficou convencido de que o antigo funcionário do Google quer criar uma verdadeira igreja e não uma nova empresa ou um grupo de reflexão sobre robôs. Este engenheiro está convencido de que um dia, mais ou menos longínquo, a IA ultrapassará, de longe, os seres humanos, conquistando um estatuto de divindade. “Não se trata de um deus que lança clarões ou provoca tempestades”, afirma Anthony Levandowski ao Backchannel. Mas, se estamos em face de qualquer coisa que é um milhão de vezes mais inteligente do que nós, de que outra coisa lhe podemos chamar?”
(*) O autor Rodney Brooks – Conhecido como o “pai” do famoso aspirador Roomba, Rodney Brooks é professor emérito do Instituto de Tecnologia de Massachusetts (MIT).
Dirigiu o laboratório de ciências informáticas e de Inteligência Artificial entre 1997 e 2007, antes de criar a empresa iRobot (que comercializa o aspirador) e, logo a seguir, a Rethink Robotics, empresa especializada no desenvolvimento de robôs colaborativos para a indústria, da qual é hoje diretor-geral.
A INTELIGÊNCIA ARTIFICIAL AO LONGO DO TEMPO
Foi com a definição do cientista Alan Turing que se começou afalar de Inteligência Artificial. Em meados do seu processo de desenvolvimento, foram criados robôs para a indústria automobilística e até para servirem de cães de companhia. Agora, as máquinas inteligentes andam nos bolsos de todos nós.
1950 – O teste de Turing: O cientista Alan Turing propôs um teste para aferir a inteligência das máquinas. Se a máquina conseguisse levar o ser humano a acreditar que ela é inteligente, ficava provada a sua inteligência.
1955 – Surge o termo Inteligência Artificial (IA): A expressão Inteligência Artificial foi cunhada pelo cientista John McCarthy, para descrever a “ciência e a engenharia do desenvolvimento de máquinas inteligentes”
1999 – Aibo, o cão robô: Nesse ano a Sony lançou para o grande público o primeiro cão-robô, o Aibo, um “animal de estimação” capaz de desenvolver a sua própria personalidade.
2002 – Roomba, a vassoura mágica: É o primeiro robô autônomo concebido para ser vendido em larga escala no mercado consumidor. Aprende rotas, evita obstáculos, enquanto limpa a casa.
2011 – Siri, secretaria sabe tudo: A Apple integra no iPhone 4S um assistente virtual dotado de inteligência Artificial com uma interface de voz, a Siri.
2011- Watson, super memória: O computador Watson ganha prêmio de um milhão de dólares ao conseguir responder a todas as perguntas do concurso de televisão “Jeopardy”.
2014 – Eugene, o computador quase humano: Eugene Goostman é um computador dotado de um programa de conversação capaz de ser aprovado no teste de Turing, já que um terço das pessoas com quem ele conversou julgou que se tratava de um ser humano.
2014 – Alexa, assistente de compras: A Amazon lança um assistente pessoal com interface de voz, o Alexa, que ajuda as pessoas a tomarem decisões a respeito das compras que fazem.
2015 – Sophia, inteligente, bela e charmosa: Sophia é um robô humanoide desenvolvido pela empresa Hanson Robotics, de Hong Kong, capaz de reproduzir 62 expressões faciais. Projetado para aprender, adaptar-se ao comportamento humano e trabalhar com seres humanos. Em outubro de 2017, tornou-se o primeiro robô a receber a cidadania de um país (Arábia Saudita).
GLOSSÁRIO
Algoritmo: conjunto de regras e de instruções que permite executar uma sequência de operações para resolver um problema. Pode ser traduzido num programa executável por um computador.
Aprendizagem de fundo: também chamada deep learning, é um conjunto de técnicas de aprendizagem destinados às máquinas (machine learning). Trata-se de um setor da Inteligência Artificial que tem por objetivo adquirir conhecimentos automaticamente a partir de grandes quantidades de dados (big data). O reconhecimento de imagens, por exemplo, utiliza esta técnica. A aprendizagem de fundo assenta em redes de neurônios artificiais.
Inteligência Artificial (IA): conjunto de teorias e técnicas utilizado para que as máquinas possam simular os comportamentos cognitivos humanos, através da utilização de algoritmos, por exemplo. Divide-se entre IA fraca e IA forte.
IA fraca: concentra-se numa tarefa específica de forma autônoma. Todos os sistemas existentes atualmente são considerados IA fraca.
IA forte: também designada por Inteligência Artificial geral, trata-se de uma máquina que, se um dia surgir, será dotada de consciência própria, razão e sentimentos.
Rede de neurônios: inspirada na rede de neurônios biológicos do cérebro humano, trata-se de um conjunto de algoritmos. Quanto maior for o número de neurônios ligados entre si, mais “profunda” é a rede, e mais confiável é o resultado alcançado.
Singularidade: inteligência superior capaz de se auto-melhorar, a qual seria o fruto da aceleração do progresso tecnológico.
Comentários
Os comentários aqui postados expressam a opinião dos seus autores, responsáveis por seu teor, e não do 247