Inspirado no relatório de 1945 “Science: The Endless Frontier”, de autoria de Vannevar Bush, a pedido do Presidente Truman, o governo dos EUA iniciou uma tradição de longa data de investir em pesquisas básicas. Esses investimentos pagaram dividendos constantes em muitos domínios científicos – de energia nuclear a lasers e de tecnologias médicas à inteligência artificial. Treinados em pesquisas fundamentais, gerações de estudantes emergiram de laboratórios universitários com o conhecimento e as habilidades necessárias para empurrar a tecnologia existente para além de suas capacidades conhecidas.
E, no entanto, o financiamento para a ciência básica – e para a educação daqueles que podem persegui -la – está sob crescente pressão. O orçamento federal proposto pela nova Casa Branca inclui cortes profundos no Departamento de Energia e na Fundação Nacional de Ciências (embora o Congresso possa se desviar dessas recomendações). Os Institutos Nacionais de Saúde já cancelaram ou pararam mais de US $ 1,9 bilhão Em subsídios, enquanto os programas de educação STEM da NSF sofreram mais de US $ 700 milhões em terminações.
Essas perdas forçaram algumas universidades a congelar admissão de estudantes de pós -graduação, cancelar estágios e reduzir as oportunidades de pesquisa de verão – tornando -o mais difícil para os jovens seguirem carreiras científicas e de engenharia. Em uma época dominada por métricas de curto prazo e retornos rápidos, pode ser difícil justificar pesquisas cujas aplicações podem não se concretizar por décadas. Mas esses são precisamente os tipos de esforços que devemos apoiar se queremos garantir nosso futuro tecnológico.
Considere John McCarthy, matemático e cientista da computação que cunhou o termo “inteligência artificial”. No final da década de 1950, enquanto estava no MIT, ele liderou um dos primeiros grupos de IA e desenvolveu o LISP, uma linguagem de programação ainda usada hoje em aplicativos de computação científica e IA. Na época, a IA prática parecia longe. Mas esse trabalho fundamental inicial estabeleceu as bases para o mundo de hoje.
Após o entusiasmo inicial da década de 1950 até os anos 70, o interesse em redes neurais-uma arquitetura de IA principal hoje inspirada no cérebro humano-foi retirada durante os chamados “invernos de IA” do final dos anos 90 e início dos anos 2000. Dados limitados, poder computacional inadequado e lacunas teóricas dificultaram o progresso do campo. Ainda assim, pesquisadores como Geoffrey Hinton e John Hopfield pressionaram. Hopfield, agora um ganhador do Nobel de 2024 em física, introduziu seu modelo de rede neural inovadora em 1982, em um artigo publicado em Anais da Academia Nacional de Ciências dos EUA. Seu trabalho revelou as profundas conexões entre a computação coletiva e o comportamento dos sistemas magnéticos desordenados. Juntamente com o trabalho de colegas, incluindo Hinton, que recebeu o Nobel no mesmo ano, essa pesquisa fundamental semeou a explosão de tecnologias de aprendizado profundo que vemos hoje.
Uma razão pela qual as redes neurais agora florescem é a unidade de processamento gráfica, ou GPU-originalmente projetada para jogos, mas agora essencial para as operações pesadas da matriz da IA. Esses chips dependem de décadas de pesquisa fundamental em ciência dos materiais e física de estado sólido: materiais altos dielétricos, ligas de silício tensas e outros avanços, possibilitando produzir os transistores mais eficientes possíveis. Agora estamos entrando em outra fronteira, explorando os Memristores, Materiais de mudança de fase e 2D e dispositivos spintrônicos.
Se você está lendo isso em um telefone ou laptop, está mantendo o resultado de uma aposta que alguém fez uma curiosidade. A mesma curiosidade ainda está viva nos laboratórios de universidades e pesquisas hoje – muitas vezes sem glamour, às vezes obscurece o trabalho em silêncio, estabelecendo as bases para revoluções que se infiltrarão em alguns dos aspectos mais essenciais de nossas vidas daqui a 50 anos. No principal diário de física, onde sou editor, meus colaboradores e eu vemos o trabalho minucioso e a dedicação por trás de todos os trabalhos que lidamos. Nossa economia moderna – com gigantes como Nvidia, Microsoft, Apple, Amazon e Alphabet – seria inimaginável sem o humilde transistor e a paixão pelo conhecimento que alimenta a incansável curiosidade de cientistas como aqueles que tornaram isso possível.
O próximo transistor pode não parecer um interruptor. Pode surgir de novos tipos de materiais (como quânticos, tipos híbridos-orgânicos-inorgânicos ou hierárquicos) ou de ferramentas que ainda não imaginamos. Mas precisará dos mesmos ingredientes: sólidos conhecimentos fundamentais, recursos e liberdade para buscar questões abertas impulsionadas pela curiosidade, colaboração – e o mais importante, o apoio financeiro de alguém que acredita que vale a pena o risco.
Julia R. Greer é cientista de materiais do Instituto de Tecnologia da Califórnia. Ela é uma juíza para MIT Technology Reviewinovadores abaixo de 35 e um ex -homenageado (em 2008).