Compartilhe com seus amigos!

A inteligência artificial permite que as máquinas modelem e até melhorem as capacidades da mente humana. Desde o desenvolvimento de carros autônomos até a proliferação de assistentes inteligentes como Siri e Alexa, a IA é uma parte crescente da vida cotidiana. Como resultado, muitas empresas de tecnologia em vários setores estão investindo em tecnologias artificialmente inteligentes.

 

Menu de conteúdos

 

 

O que é Inteligência Artificial?

 

A inteligência artificial é um ramo abrangente da ciência da computação preocupado com a construção de máquinas inteligentes capazes de executar tarefas que normalmente exigem inteligência humana.

 

Como funciona a Inteligência Artificial?

 

Menos de uma década depois de ajudar as forças aliadas a vencer a Segunda Guerra Mundial ao quebrar a máquina de criptografia nazista Enigma, o matemático Alan Turing mudou a história pela segunda vez com uma pergunta simples: “As máquinas podem pensar?”

 

O artigo publicado por Turing em 1950 “Computing Machinery and Intelligence” e seu subsequente Teste de Turing estabeleceram o objetivo e a visão fundamental da IA.

 

Em sua essência, a IA é o ramo da ciência da computação que visa responder afirmativamente à pergunta de Turing. É o esforço de replicar ou simular a inteligência humana em máquinas. O objetivo expansivo da IA deu origem a muitas perguntas e debates. Tanto que nenhuma definição singular do campo é universalmente aceita.
As máquinas podem pensar? – Alan Turing, 1950

 

Definindo IA

 

A principal limitação em definir a IA como simplesmente “construir máquinas inteligentes” é que ela não explica realmente o que é IA e o que torna uma máquina inteligente. A IA é uma ciência interdisciplinar com várias abordagens, mas os avanços em machine learning e deep learning estão criando uma mudança de paradigma em praticamente todos os setores da indústria de tecnologia.

 

No entanto, vários novos testes foram propostos recentemente e foram amplamente bem recebidos, incluindo um trabalho de pesquisa de 2019 intitulado “On the Measure of Intelligence”. No artigo, o pesquisador veterano em deep learning e engenheiro do Google, François Chollet, argumenta que a inteligência é a “taxa na qual um aluno transforma sua experiência e seus antecedentes em novas habilidades em tarefas valiosas que envolvem incerteza e adaptação”. Em outras palavras: Os sistemas mais inteligentes são capazes de pegar apenas uma pequena quantidade de experiência e adivinhar qual seria o resultado em muitas situações variadas.

 

Enquanto isso, em seu livro Artificial Intelligence: A Modern Approach, os autores Stuart Russell e Peter Norvig abordam o conceito de IA unificando seu trabalho em torno do tema de agentes inteligentes em máquinas. Com isso em mente, a IA é “o estudo de agentes que recebem percepções do ambiente e realizam ações”.

 

Inteligência artificial definida: quatro tipos de abordagens

 

⦁ Pensando humanamente: imitando o pensamento baseado na mente humana.

⦁ Pensando racionalmente: imitando o pensamento baseado no raciocínio lógico.

⦁ Agir humanamente: agir de forma a imitar o comportamento humano.

⦁ Agir racionalmente: agir de forma a atingir um determinado objetivo

 

As duas primeiras ideias dizem respeito aos processos de pensamento e raciocínio, enquanto as outras tratam do comportamento. Norvig e Russell se concentram particularmente em agentes racionais que agem para alcançar o melhor resultado, observando que “todas as habilidades necessárias para o Teste de Turing também permitem que um agente aja racionalmente”.

 

O professor de IA e ciência da computação do MIT Patrick Winston definiu IA como “algoritmos habilitados por restrições, expostos por representações que suportam modelos direcionados a loops que unem pensamento, percepção e ação”.

 

Embora essas definições possam parecer abstratas para a pessoa comum, elas ajudam a focar o campo como uma área da ciência da computação e fornecem um modelo para infundir máquinas e programas com ML e outros subconjuntos de IA.

 

O futuro da IA

 

Quando se considera os custos computacionais e a infraestrutura de dados técnicos executados por trás da inteligência artificial, a execução na IA é um negócio complexo e caro. Felizmente, houve avanços maciços na tecnologia da computação, conforme indicado pela Lei de Moore, que afirma que o número de transistores em um microchip dobra a cada dois anos, enquanto o custo dos computadores é reduzido pela metade.

 

Embora muitos especialistas acreditem que a Lei de Moore provavelmente chegará ao fim em algum momento da década de 2020, isso teve um grande impacto nas técnicas modernas de IA – sem ela, o deep learning estaria fora de questão, financeiramente falando. Pesquisas recentes descobriram que a inovação da IA ​​superou a Lei de Moore, dobrando a cada seis meses ou mais, em vez de dois anos.

Por essa lógica, os avanços que a inteligência artificial fez em vários setores foram importantes nos últimos anos. E o potencial para um impacto ainda maior nas próximas décadas parece inevitável.

 

Os quatro tipos de Inteligência Artificial

 

A IA pode ser dividida em quatro categorias, com base no tipo e complexidade das tarefas que um sistema é capaz de realizar. Por exemplo, a filtragem automatizada de spam se enquadra na classe mais básica de IA, enquanto o potencial distante de máquinas que podem perceber os pensamentos e emoções das pessoas faz parte de um subconjunto de IA totalmente diferente.

 

Quais são os quatro tipos de inteligência artificial?

 

Máquinas reativas: capazes de perceber e reagir ao mundo à sua frente enquanto executa tarefas limitadas.

Memória limitada: capaz de armazenar dados e previsões anteriores para informar as previsões do que pode vir a seguir.

Teoria da mente: capaz de tomar decisões com base em suas percepções de como os outros se sentem e tomam decisões.

Autoconsciência: capaz de operar com consciência de nível humano e compreender sua própria existência.

 

Máquinas reativas

 

Uma máquina reativa segue os princípios mais básicos de IA e, como o próprio nome indica, é capaz de usar apenas sua inteligência para perceber e reagir ao mundo à sua frente. Uma máquina reativa não pode armazenar uma memória e, como resultado, não pode confiar em experiências passadas para informar a tomada de decisões em tempo real.

 

Perceber o mundo diretamente significa que as máquinas reativas são projetadas para realizar apenas um número limitado de tarefas especializadas. No entanto, restringir intencionalmente a visão de mundo de uma máquina reativa não é nenhum tipo de medida de corte de custos e, em vez disso, significa que esse tipo de IA será mais confiável e de confiança – reagirá da mesma maneira aos mesmos estímulos todas as vezes.

 

Um exemplo famoso de uma máquina reativa é o Deep Blue, que foi projetado pela IBM na década de 1990 como um supercomputador para jogar xadrez e derrotou o grande mestre internacional Gary Kasparov em um jogo. O Deep Blue só era capaz de identificar as peças em um tabuleiro de xadrez e saber como cada uma se move com base nas regras do xadrez, reconhecendo a posição atual de cada peça e determinando qual seria a jogada mais lógica naquele momento. O computador não estava perseguindo futuros movimentos de seu oponente ou tentando colocar suas próprias peças em uma posição melhor. Cada curva era vista como sua própria realidade, separada de qualquer outro movimento feito anteriormente.

 

Outro exemplo de uma máquina reativa para jogos é o AlphaGo do Google. O AlphaGo também é incapaz de avaliar movimentos futuros, mas conta com sua própria rede neural para avaliar os desenvolvimentos do jogo atual, dando-lhe uma vantagem sobre o Deep Blue em um jogo mais complexo. AlphaGo também superou competidores de classe mundial do jogo, derrotando o campeão Go jogador Lee Sedol em 2016.

 

Embora limitada em escopo e não seja facilmente alterada, a IA de máquina reativa pode atingir um nível de complexidade e oferece confiabilidade quando criada para cumprir tarefas repetíveis.

 

Memória Limitada

 

A IA de memória limitada tem a capacidade de armazenar dados e previsões anteriores ao coletar informações e ponderar possíveis decisões – essencialmente olhando para o passado em busca de pistas sobre o que pode vir a seguir. A IA de memória limitada é mais complexa e apresenta maiores possibilidades do que as máquinas reativas.

 

A IA de memória limitada é criada quando uma equipe treina continuamente um modelo em como analisar e utilizar novos dados ou um ambiente de IA é construído para que os modelos possam ser treinados e renovados automaticamente.

 

Ao utilizar IA de memória limitada em ML, seis etapas devem ser seguidas: os dados de treinamento devem ser criados, o modelo de ML deve ser criado, o modelo deve ser capaz de fazer previsões, o modelo deve ser capaz de receber feedback humano ou ambiental, esses feedbacks devem ser armazenados como dados, e essas etapas devem ser reiteradas como um ciclo.

 

Existem vários modelos de ML que utilizam IA de memória limitada:

 

Aprendizado por reforço, que aprende a fazer melhores previsões por meio de tentativas e erros repetidos.

 

Redes neurais recorrentes (RNN), que usam dados sequenciais para obter informações de entradas anteriores para influenciar a entrada e a saída atuais. Eles são comumente usados para problemas ordinais ou temporais, como tradução de idiomas, processamento de linguagem natural, reconhecimento de fala e legendagem de imagens. Um subconjunto de redes neurais recorrentes é conhecido como memória de longo prazo (LSTM), que utiliza dados passados para ajudar a prever o próximo item em uma sequência. Os LTSMs veem as informações mais recentes como as mais importantes ao fazer previsões e descontam os dados do passado enquanto ainda os utilizam para formar conclusões.

 

Redes adversárias generativas evolutivas (E-GAN), que evoluem ao longo do tempo, crescendo para explorar caminhos ligeiramente modificados com base em experiências anteriores a cada nova decisão. Este modelo está constantemente em busca de um caminho melhor e utiliza simulações e estatísticas, ou chance, para prever resultados ao longo de seu ciclo de mutação evolutiva.

 

Transformadores, que são redes de nós que aprendem como realizar uma determinada tarefa treinando com dados existentes. Em vez de ter que agrupar elementos, os transformadores são capazes de executar processos para que cada elemento nos dados de entrada preste atenção a todos os outros elementos. Os pesquisadores se referem a isso como “auto atenção”, o que significa que, assim que começa o treinamento, um transformador pode ver traços de todo o conjunto de dados.

 

Teoria da Mente

 

A teoria da mente é apenas isso – teórica. Ainda não alcançamos as capacidades tecnológicas e científicas necessárias para alcançar este próximo nível de IA.

 

O conceito é baseado na premissa psicológica de entender que outros seres vivos têm pensamentos e emoções que afetam o comportamento de si mesmo. Em termos de máquinas de IA, isso significaria que a IA poderia compreender como humanos, animais e outras máquinas se sentem e tomam decisões por meio de auto reflexão e determinação, e então utilizar essas informações para tomar suas próprias decisões. Essencialmente, as máquinas teriam que ser capazes de compreender e processar o conceito de “mente”, as flutuações das emoções na tomada de decisões e uma série de outros conceitos psicológicos em tempo real, criando uma relação de mão dupla entre as pessoas e a IA.

 

Autoconsciência

 

Uma vez que a teoria da mente possa ser estabelecida, em algum momento no futuro da IA, o passo final será que a IA se torne autoconsciente. Esse tipo de IA possui consciência no nível humano e entende sua própria existência no mundo, bem como a presença e o estado emocional dos outros. Seria capaz de entender o que os outros podem precisar com base não apenas no que eles comunicam a eles, mas em como eles o comunicam.

 

A autoconsciência na IA depende tanto de pesquisadores humanos que entendem a premissa da consciência e, em seguida, aprendem como replicá-la para que possa ser incorporada às máquinas.

 

Como a IA é usada? Exemplos de Inteligência Artificial

 

Ao abordar uma multidão na Japan AI Experience em 2017, o CEO da DataRobot, Jeremy Achin, começou seu discurso oferecendo a seguinte definição de como a IA é usada hoje:

 

“A IA é um sistema de computador capaz de executar tarefas que normalmente requerem inteligência humana… Muitos desses sistemas de inteligência artificial são alimentados por machine learning, alguns deles são alimentados por deep learning e alguns deles são alimentados por coisas muito chatas, como regras.”

 

Outras classificações de IA

 

Existem três maneiras de classificar a inteligência artificial, com base em suas capacidades. Em vez de tipos de inteligência artificial, esses são estágios pelos quais a IA pode evoluir – e apenas um deles é realmente possível no momento.

 

IA restrita: às vezes chamada de “IA fraca”, esse tipo de IA opera dentro de um contexto limitado e é uma simulação da inteligência humana. A IA estreita geralmente se concentra em executar uma única tarefa extremamente bem e, embora essas máquinas possam parecer inteligentes, elas operam sob muito mais restrições e limitações do que a inteligência humana mais básica.

 

Inteligência geral artificial (AGI): AGI, às vezes chamada de “IA forte”, é o tipo de IA que vemos nos filmes – como os robôs de Westworld ou o personagem Data de Star Trek: The Next Generation. AGI é uma máquina com inteligência geral e, assim como um ser humano, pode aplicar essa inteligência para resolver qualquer problema.

 

Superinteligência: este provavelmente será o auge da evolução da IA. A IA superinteligente não apenas será capaz de replicar a complexa emoção e inteligência dos seres humanos, mas superá-la em todos os sentidos. Isso pode significar fazer julgamentos e decisões por conta própria, ou até mesmo formar sua própria ideologia.

 

Exemplos estreitos de AI

 

A IA estreita, ou IA fraca, como costuma ser chamada, está ao nosso redor e é facilmente a realização mais bem-sucedida da IA até hoje. Possui funções limitadas que podem ajudar a automatizar tarefas específicas.

 

Por causa desse foco, a IA restrita experimentou vários avanços na última década que tiveram “benefícios sociais significativos e contribuíram para a vitalidade econômica da nação”, de acordo com um relatório de 2016 divulgado pelo governo Obama.

 

Exemplos de inteligência artificial: ia estreita

⦁ Siri, Alexa e outros assistentes inteligentes
⦁ Carros autônomos
⦁ Pesquisa do Goolge
⦁ Bots de conversação
⦁ Filtros de spam de e-mail
⦁ Recomendações da Netflix

 

Machine Learning e Deep Learning

 

Grande parte da IA estreita é alimentada por avanços em ML e deep learning. Entender a diferença entre IA, ML e deep learning pode ser confuso. O capitalista de risco Frank Chen fornece uma boa visão de como distinguir entre eles, observando:
“A inteligência artificial é um conjunto de algoritmos e inteligência para tentar imitar a inteligência humana. O machine learning é um deles, e o deep learning é uma dessas técnicas de aprendizado de máquina.”

 

Simplificando, um algoritmo de ML é alimentado com dados por um computador e usa técnicas estatísticas para ajudá-lo a “aprender” como melhorar progressivamente em uma tarefa, sem necessariamente ter sido programado especificamente para essa tarefa. Em vez disso, os algoritmos de ML usam dados históricos como entrada para prever novos valores de saída. Para esse fim, o ML consiste em aprendizado supervisionado (onde a saída esperada para a entrada é conhecida graças a conjuntos de dados rotulados) e aprendizado não supervisionado (onde as saídas esperadas são desconhecidas devido ao uso de conjuntos de dados não rotulados).

 

Machine learning está presente em todo o dia a dia. O Google Maps usa dados de localização de smartphones, bem como dados relatados pelo usuário sobre coisas como construção e acidentes de carro, para monitorar o fluxo e refluxo do tráfego e avaliar qual será a rota mais rápida. Assistentes pessoais como Siri, Alexa e Cortana são capazes de definir lembretes, pesquisar informações online e controlar as luzes nas casas das pessoas, tudo com a ajuda de algoritmos de ML que coletam informações, aprendem as preferências de um usuário e melhoram sua experiência com base em interações anteriores com usuários. Até os filtros do Snapchat usam algoritmos de ML para rastrear a atividade facial dos usuários.

 

Enquanto isso, o deep learning é um tipo de ML que executa entradas por meio de uma arquitetura de rede neural inspirada na biologia. As redes neurais contêm uma série de camadas ocultas através das quais os dados são processados, permitindo que a máquina se aprofunde em seu aprendizado, fazendo conexões e ponderando as entradas para obter os melhores resultados.

 

Os carros autônomos são um exemplo reconhecível de deep learning, pois usam redes neurais profundas para detectar objetos ao seu redor, determinar sua distância de outros carros, identificar sinais de trânsito e muito mais. Os sensores e dispositivos vestíveis usados ​​no setor de saúde também aplicam deep learning para avaliar a condição de saúde do paciente, incluindo seus níveis de açúcar no sangue, pressão arterial e frequência cardíaca. Eles também podem derivar padrões de dados médicos anteriores de um paciente e usá-los para antecipar quaisquer condições de saúde futuras.

 

Inteligência geral artificial

 

A criação de uma máquina com inteligência de nível humano que pode ser aplicada a qualquer tarefa é o Santo Graal para muitos pesquisadores de IA, mas a busca por inteligência artificial geral tem sido repleta de dificuldades.

 

A busca por um “algoritmo universal para aprender e agir em qualquer ambiente”, como dizem Russel e Norvig, não é nova. Em contraste com a IA fraca, a IA forte representa uma máquina com um conjunto completo de habilidades cognitivas, mas o tempo não diminuiu a dificuldade de alcançar tal feito.

 

A IGA tem sido a musa da ficção científica distópica, na qual robôs superinteligentes dominam a humanidade, mas os especialistas concordam que não é algo com o qual precisamos nos preocupar tão cedo.

 

Embora, por enquanto, IGA ainda seja uma fantasia, existem alguns sistemas notavelmente sofisticados por aí que estão se aproximando do benchmark IGA. Um deles é o GPT-3, um modelo de linguagem autorregressivo desenvolvido pela OpenAI que usa deep learning para produzir texto humano. O GPT-3 não é inteligente, mas foi usado para criar algumas coisas extraordinárias, incluindo um chatbot que permite conversar com figuras históricas e um mecanismo de pesquisa baseado em perguntas. MuZero, um programa de computador criado pela DeepMind, é outro promissor pioneiro na busca para alcançar a verdadeira IGA. Ele conseguiu dominar jogos que nem foi ensinado a jogar, incluindo xadrez e um conjunto inteiro de jogos Atari, através da força bruta, jogando milhões de vezes.

 

Superinteligência

 

Além da IA ​​e da IGA estreitas, alguns consideram que existe uma terceira categoria conhecida como superinteligência. Por enquanto, esta é uma situação completamente hipotética em que as máquinas são completamente autoconscientes, superando até mesmo a inteligência humana em praticamente todos os campos, da ciência às habilidades sociais. Em teoria, isso poderia ser alcançado através de um único computador, uma rede de computadores ou algo completamente diferente, desde que seja consciente e tenha experiências subjetivas.

 

Nick Bostrom, professor fundador e líder do Future of Humanity Institute de Oxford, parece ter cunhado o termo em 1998 e previu que teremos alcançado inteligência artificial sobre-humana no primeiro terço do século XXI. Ele continuou dizendo que a probabilidade de isso acontecer provavelmente dependerá da rapidez com que a neurociência pode entender e replicar melhor o cérebro humano. Criar superinteligência imitando o cérebro humano, acrescentou ele, exigirá não apenas um hardware suficientemente poderoso, mas também uma “arquitetura inicial adequada” e um “rico fluxo de entrada sensorial”.

 

Por que a Inteligência Artificial é importante?

 

A IA tem muitos usos – desde impulsionar o desenvolvimento de vacinas até automatizar a detecção de possíveis fraudes.
A atividade do mercado privado de IA registrou um ano recorde em 2021, de acordo com a CB Insights, com o financiamento global subindo 108% em relação a 2020. Por causa de sua adoção acelerada, a IA está causando ondas em vários setores.

 

O relatório de 2022 da Business Insider Intelligence sobre IA no setor bancário descobriu que mais da metade das empresas de serviços financeiros já usa soluções de IA para gerenciamento de riscos e geração de receita. A aplicação da IA ​​no setor bancário pode levar a uma economia de mais de US$ 400 bilhões.

 

Quanto à medicina, um relatório da Organização Mundial da Saúde de 2021 observou que, embora a integração da IA ​​no campo da saúde tenha desafios, a tecnologia “é uma grande promessa”, pois pode levar a benefícios como políticas de saúde mais informadas e melhorias na precisão do diagnóstico de pacientes.

 

A IA também deixou sua marca no entretenimento. Estima-se que o mercado global de IA em mídia e entretenimento atinja US$ 99,48 bilhões até 2030, passando de um valor de US$ 10,87 bilhões em 2021, de acordo com a Grand View Research. Essa expansão inclui usos de IA, como reconhecimento de plágio e desenvolvimento de gráficos de alta definição.

 

Prós e Contras da Inteligência Artificial

 

Embora a IA seja certamente vista como um ativo importante e em rápida evolução, esse campo emergente vem com sua parcela de desvantagens.

 

O Pew Research Center pesquisou 10.260 americanos em 2021 sobre suas atitudes em relação à IA. Os resultados descobriram que 45% dos entrevistados estão igualmente animados e preocupados, e 37% estão mais preocupados do que animados. Além disso, mais de 40% dos entrevistados disseram que consideravam os carros sem motorista ruins para a sociedade. No entanto, a ideia de usar a IA para identificar a disseminação de informações falsas nas mídias sociais foi mais bem recebida, com cerca de 40% dos entrevistados classificando-a como uma boa ideia.

 

A IA é um boom para melhorar a produtividade e a eficiência e, ao mesmo tempo, reduzir o potencial de erro humano. Mas também existem algumas desvantagens, como custos de desenvolvimento e a possibilidade de máquinas automatizadas substituírem empregos humanos. Vale a pena notar, no entanto, que a indústria de inteligência artificial também cria empregos – alguns dos quais ainda nem foram inventados.

 

Uma Breve História da Inteligência Artificial

 

Robôs inteligentes e seres artificiais apareceram pela primeira vez nos antigos mitos gregos. E o desenvolvimento do silogismo por Aristóteles e seu uso do raciocínio dedutivo foi um momento chave na busca da humanidade para entender sua própria inteligência. Embora as raízes sejam longas e profundas, a história da IA como pensamos hoje abrange menos de um século. A seguir, uma rápida olhada em alguns dos eventos mais importantes da IA.

 

Década de 1940

 

⦁ (1942) Isaac Asimov publica as Três Leis da Robótica, uma ideia comumente encontrada na mídia de ficção científica sobre como a inteligência artificial não deve prejudicar os seres humanos.

⦁ (1943) Warren McCullough e Walter Pitts publicam o artigo “A Logical Calculus of Ideas Immanent in Nervous Activity”, que propõe o primeiro modelo matemático para construir uma rede neural.

⦁ (1949) Em seu livro The Organization of Behavior: A Neuropsychological Theory, Donald Hebb propõe a teoria de que as vias neurais são criadas a partir de experiências e que as conexões entre os neurônios se tornam mais fortes quanto mais frequentemente são usadas. A aprendizagem hebbiana continua a ser um modelo importante em IA.

 

Década de 1950

 

• (1950) Alan Turing publica o artigo “Computing Machinery and Intelligence”, propondo o que hoje é conhecido como Teste de Turing, um método para determinar se uma máquina é inteligente.
• (1950) Marvin Minsky e Dean Edmonds, alunos de Harvard, constroem o SNARC, o primeiro computador de rede neural.
• (1950) Claude Shannon publica o artigo “Programming a Computer for Playing Chess”.
• (1952) Arthur Samuel desenvolve um programa de autoaprendizagem para jogar damas.
• (1954) O experimento de tradução automática Georgetown-IBM traduz automaticamente 60 frases russas cuidadosamente selecionadas para o inglês.
• (1956) A expressão “inteligência artificial” é cunhada no Dartmouth Summer Research Project on Artificial Intelligence. Liderada por John McCarthy, a conferência é amplamente considerada o berço da IA.
• (1956) Allen Newell e Herbert Simon demonstram o Logic Theorist (LT), o primeiro programa de raciocínio.
• (1958) John McCarthy desenvolve a linguagem de programação de IA Lisp e publica “Programs with Common Sense”, um artigo propondo o hipotético Advice Taker, um sistema de IA completo com a capacidade de aprender com a experiência de forma tão eficaz quanto os humanos.
• (1959) Allen Newell, Herbert Simon e J.C. Shaw desenvolvem o General Problem Solver (GPS), um programa projetado para imitar a solução humana de problemas.
• (1959) Herbert Gelernter desenvolve o programa Geometry Theorem Prover.
• (1959) Arthur Samuel cunha o termo “aprendizagem de máquina” enquanto estava na IBM.
• (1959) John McCarthy e Marvin Minsky fundaram o Projeto de Inteligência Artificial do MIT.

 

Década de 1960

 

• (1963) John McCarthy inicia o Laboratório de IA em Stanford.
• (1966) O relatório do Comitê Consultivo de Processamento Automático de Linguagem (ALPAC) do governo dos EUA detalha a falta de progresso na pesquisa de traduções automáticas, uma importante iniciativa da Guerra Fria com a promessa de tradução automática e instantânea do russo. O relatório ALPAC leva ao cancelamento de todos os projetos de MT financiados pelo governo.
• (1969) Os primeiros sistemas especialistas bem sucedidos são desenvolvidos em DENDRAL, um programa XX, e MYCIN, projetado para diagnosticar infecções sanguíneas, são criados em Stanford.

 

Década de 1970

 

• (1972) É criada a linguagem de programação lógica PROLOG.
• (1973) O Relatório Lighthill, detalhando as decepções na pesquisa de IA, é divulgado pelo governo britânico e leva a cortes severos no financiamento de projetos de IA.
• (1974-1980) A frustração com o progresso do desenvolvimento da IA leva a grandes cortes da DARPA nas bolsas acadêmicas. Combinado com o relatório ALPAC anterior e o Lighthill Report do ano anterior, o financiamento da IA seca e a pesquisa para. Este período é conhecido como o “Primeiro Inverno da IA”.

 

Década de 1980

 

• (1980) A Digital Equipment Corporations desenvolve o R1 (também conhecido como XCON), o primeiro sistema especialista comercial bem-sucedido. Projetado para configurar pedidos para novos sistemas de computador, o R1 inicia um boom de investimentos em sistemas especialistas que durará grande parte da década, encerrando efetivamente o primeiro AI Winter.
• (1982) O Ministério do Comércio Internacional e Indústria do Japão lança o ambicioso projeto de Sistemas de Computadores de Quinta Geração. O objetivo do FGCS é desenvolver um desempenho semelhante ao de um supercomputador e uma plataforma para o desenvolvimento de IA.
• (1983) Em resposta ao FGCS do Japão, o governo dos EUA lança a Iniciativa de Computação Estratégica para fornecer pesquisa financiada pela DARPA em computação avançada e IA.
• (1985) As empresas estão gastando mais de um bilhão de dólares por ano em sistemas especialistas e toda uma indústria conhecida como o mercado de máquinas Lisp surge para apoiá-los. Empresas como Symbolics e Lisp Machines Inc. constroem computadores especializados para rodar na linguagem de programação de IA Lisp.
• (1987-1993) À medida que a tecnologia de computação melhorou, surgiram alternativas mais baratas e o mercado de máquinas Lisp entrou em colapso em 1987, inaugurando o “Segundo Inverno de IA”. Durante esse período, os sistemas especialistas se mostraram muito caros para manter e atualizar, eventualmente caindo em desuso.

 

Década de 1990

 

• (1991) As forças dos EUA implantam o DART, uma ferramenta automatizada de planejamento e programação de logística, durante a Guerra do Golfo.
• (1992) O Japão encerra o projeto FGCS em 1992, alegando fracasso no cumprimento das metas ambiciosas delineadas uma década antes.
• (1993) A DARPA encerra a Iniciativa de Computação Estratégica em 1993 depois de gastar quase US$ 1 bilhão e ficar muito aquém das expectativas.
• (1997) Deep Blue da IBM vence o campeão mundial de xadrez Gary Kasparov.

 

Década de 2000

 

• (2005) STANLEY, um carro autônomo, vence o DARPA Grand Challenge.
• (2005) Os militares dos EUA começam a investir em robôs autônomos como “Big Dog” da Boston Dynamics e “PackBot” da iRobot.
• (2008) Google faz avanços no reconhecimento de fala e introduz o recurso em seu aplicativo para iPhone.

 

Década de 2010

 

• (2011) Watson da IBM derrota com folga a concorrência no Jeopardy!.
• (2011) A Apple lança o Siri, um assistente virtual alimentado por IA por meio de seu sistema operacional iOS.
• (2012) Andrew Ng, fundador do projeto Google Brain Deep Learning, alimenta uma rede neural usando algoritmos de deep learning com 10 milhões de vídeos do YouTube como um conjunto de treinamento. A rede neural aprendeu a reconhecer um gato sem que lhe dissessem o que é um gato, inaugurando a era revolucionária para redes neurais e financiamento de aprendizado profundo.
• (2014) Google faz o primeiro carro autônomo a passar em um teste de direção estadual.
• (2014) Alexa da Amazon, um dispositivo inteligente de casa virtual, é lançado.
• (2016) AlphaGo do Google DeepMind derrota o jogador campeão mundial de Go Lee Sedol. A complexidade do antigo jogo chinês foi vista como um grande obstáculo a ser superado na IA.
• (2016) O primeiro “cidadão robô”, um robô humanóide chamado Sophia, é criado pela Hanson Robotics e é capaz de reconhecimento facial, comunicação verbal e expressão facial.
• (2018) Google lança o motor de processamento de linguagem natural BERT, reduzindo as barreiras na tradução e compreensão por aplicativos de ML.
• (2018) Waymo lança seu serviço Waymo One, permitindo que usuários em toda a região metropolitana de Phoenix solicitem uma retirada em um dos veículos autônomos da empresa.

 

Década de 2020

 

• (2020) Baidu lança seu algoritmo LinearFold AI para equipes científicas e médicas que trabalham para desenvolver uma vacina durante os estágios iniciais da pandemia de SARS-CoV-2. O algoritmo é capaz de prever a sequência de RNA do vírus em apenas 27 segundos, 120 vezes mais rápido que outros métodos.
• (2020) OpenAI lança o modelo de processamento de linguagem natural GPT-3, que é capaz de produzir texto modelado de acordo com a forma como as pessoas falam e escrevem.
• (2021) OpenAI baseia-se no GPT-3 para desenvolver o DALL-E, que é capaz de criar imagens a partir de prompts de texto.
• (2022) O National Institute of Standards and Technology lança o primeiro rascunho de sua AI Risk Management Framework, orientação voluntária dos EUA “para gerenciar melhor os riscos para indivíduos, organizações e sociedade associados à inteligência artificial”.
• (2022) DeepMind revela Gato, um sistema de IA treinado para executar centenas de tarefas, incluindo jogar Atari, legendar imagens e usar um braço robótico para empilhar blocos.

 

O que aprendemos com este artigo?

 

O que é Inteligência Artificial?

A inteligência artificial é um ramo abrangente da ciência da computação preocupado com a construção de máquinas inteligentes capazes de executar tarefas que normalmente exigem inteligência humana.

Quais são os 4 tipos de inteligência artificial?

Maquinas reativas, memória limitada, teoria da mente e autoconsciência.

Por que a Inteligência Artificial é importante?

A IA tem muitos usos – desde impulsionar o desenvolvimento de vacinas até automatizar a detecção de possíveis fraudes.

Quais são os prós e contras da Inteligência Artificial?

A IA é um boom para melhorar a produtividade e a eficiência e, ao mesmo tempo, reduzir o potencial de erro humano. Mas também existem algumas desvantagens, como custos de desenvolvimento e a possibilidade de máquinas automatizadas substituírem empregos humanos. Vale a pena notar, no entanto, que a indústria de inteligência artificial também cria empregos – alguns dos quais ainda nem foram inventados.

Qual o futuro da IA?

Os avanços que a inteligência artificial fez em vários setores foram importantes nos últimos anos e o potencial para um impacto ainda maior nas próximas décadas parece inevitável.

Artigo inspirado e adaptado de: https://builtin.com/artificial-intelligence

Compartilhe com seus amigos!

Deixe um comentário