A Inteligência Artificial é um campo da ciência da computação que busca criar máquinas capazes de realizar tarefas que exigem inteligência humana, como aprendizado, raciocínio e resolução de problemas. Seu desenvolvimento tem transformado indústrias e o dia a dia, com aplicações que vão desde assistentes virtuais até carros autônomos.
A ideia de máquinas inteligentes tem raízes em mitos antigos, mas o campo formal começou nos anos 1940 com a invenção do computador programável, inspirando discussões sobre cérebros eletrônicos. Em 1950, Alan Turing propôs o Teste de Turing, questionando se máquinas poderiam pensar, em seu artigo “Computing Machinery and Intelligence” (History of artificial intelligence). Em 1956, a Conferência de Dartmouth, organizada por John McCarthy e Marvin Minsky, marcou o nascimento oficial da IA, introduzindo o termo. Décadas seguintes viram períodos de otimismo, seguidos por “invernos da IA” devido a expectativas não atendidas, com renascimentos impulsionados por sistemas especialistas nos anos 1980 e aprendizado profundo nos anos 2010. Milestones incluem:
Pioneiros como Alan Turing estabeleceram bases teóricas, enquanto John McCarthy cunhou “IA” e desenvolveu Lisp. Marvin Minsky co-fundou o Laboratório de IA do MIT, e Allen Newell com Herbert Simon criaram o Logic Theorist. Mais recentemente, Geoffrey Hinton, Yoshua Bengio e Andrew Ng avançaram o aprendizado profundo, com Hinton sendo chamado de “padrinho da IA” (Pioneers in artificial intelligence win the Nobel Prize in physics | AP News).
Em 2024, o Nobel de Física foi concedido a John Hopfield e Geoffrey Hinton por redes neurais artificiais, fundamentais para o aprendizado de máquina, com Hinton ex-funcionário do Google até 2023, quando deixou para alertar sobre riscos da IA (AI doomsayer wins Nobel Prize for key research – POLITICO). O Nobel de Química foi dado a Demis Hassabis e John Jumper por um algoritmo de IA que resolveu a predição de estruturas proteicas, com Hassabis CEO do DeepMind, subsidiária do Google (Artificial Intelligence awarded two Nobel Prizes for innovations that will shape the future of medicine | npj Digital Medicine).
Introduzidos em 2017 no artigo “Attention is All You Need”, os transformers são arquiteturas de rede neural baseadas em atenção, revolucionando o processamento de linguagem natural (NLP). Eles processam dados sequenciais eficientemente, sem unidades recorrentes, permitindo modelos como BERT e GPT, usados em tradução, geração de texto e chatbots (Transformer (deep learning architecture) – Wikipedia). Sua importância está em capturar relações de longo alcance, superando limitações de redes recorrentes.
Neurônios artificiais são unidades computacionais que imitam neurônios biológicos, recebendo entradas, aplicando pesos e produzindo saídas via funções de ativação. Eles formam redes neurais, base de muitos modelos de IA, capazes de aprender padrões complexos. Desenvolvidos inicialmente por Warren McCulloch e Walter Pitts, evoluíram para redes profundas, essenciais em reconhecimento de imagem e fala (Artificial neuron – Wikipedia).
A IA impacta diversas áreas:
Sugestões de imagens incluem retratos de Alan Turing, diagramas de redes neurais, ilustrações de transformers e capturas de tela de ChatGPT.