Sobre os ombros de gigantes: dos pré-socráticos ao ChatGPT

Sobre os ombros de gigantes: dos pré-socráticos ao ChatGPT

A evolução do conhecimento e o mito do gênio solitário.

Francisco Rodrigues, Universidade de São Paulo.

Em carta enviada a Robert Hooke em 1676, Isaac Newton escreveu que só havia sido capaz de fazer novas descobertas porque se baseou em trabalhos anteriores: “Só enxerguei mais longe porque estava sobre ombros de gigantes”. Com essa frase, Newton reconhecia que suas descobertas eram fruto da continuação e do aprimoramento de conhecimentos acumulados por gerações passadas. Mas a física seria a única beneficiária desse legado? E as outras áreas do conhecimento, como a química, a biologia, a filosofia e a tecnologia? A verdade é que todo avanço científico e intelectual é resultado de um processo coletivo, no qual cada nova ideia se apoia no que já foi descoberto anteriormente. As descobertas ou novas ideias não surgem do nada: elas são construídas ao longo do tempo, com o esforço conjunto de muitos pensadores que, mesmo anônimos, contribuem para o progresso do conhecimento.

Neste texto, discutiremos como o conhecimento é passado de mentes em mentes por uma multidão de pensadores, e que não existe um gênio solitário. Embora Einstein, Darwin e Pasteur tenham desenvolvido novas áreas de conhecimento de forma impressionante, tais feitos não foram consequências de lampejos de genialidade individual, mas do trabalho de milhares de pesquisadores anteriores.

“Uma ciência que hesita em esquecer os seus fundadores está perdida” — Alfred Whitehead.

Vamos começar pelo caso emblemático da Mecânica. Newton estava correto. Assim como Órion, o gigante cego que carregava Cedálion, seu servo, para servir como seus olhos e lhe proporcionar a visão que lhe faltava, Newton baseou-se nas descobertas de cientistas como Galileu e Kepler para enxergar além do que poderia sozinho. Galileu havia observado as luas de Júpiter, mostrando que nem todos os astros orbitavam a Terra, e formulou o princípio da inércia, segundo o qual um corpo tende a permanecer em repouso ou em movimento retilíneo uniforme na ausência de forças externas — essa foi a primeira lei de Newton. Kepler, por sua vez, com base nos dados meticulosamente coletados por Tycho Brahe, formulou as três leis do movimento planetário, mostrando que os planetas descrevem órbitas elípticas ao redor do Sol. Além disso, já existia um vasto acervo de observações astronômicas e de fenômenos naturais, como marés e eclipses, à disposição.

O gigante cego Órion carregando seu servo Cedálion nos ombros para agir como seus olhos. Ilustração em um manuscrito medieval. Fonte: Wikipedia.

Além de Newton, Kepler e Galileo conheciam o trabalho de Copérnico, que afirmava que a Terra gira em torno do Sol e não o contrário. Copérnico, provavelmente conhecia os textos de Aristarco de Samos (c. 310–230 a.C.), que havia antecipado essa ideia heliocêntrica. Ou seja, somos capazes de traçar uma linha dos pré-socráticos a Newton, mostrando que as ideias do gênio de Woolsthorpe Manor não nasceram do nada, mas fora construídas ao longo de vários séculos. Newton realmente estava sobre ombros de gigantes e reconhecia esse fato.

Um ponto importante que precisamos mencionar aqui é que, quando estudamos as leis da física no colégio, não temos noção de que Newton conhecia os trabalhos anteriores de Galileu e Kepler. Aprendemos as leis de Newton como se tivessem surgido de lampejos de inspiração, criando o mito do gênio solitário. Essa abordagem ensinada nas escolas nos dá a impressão de que as descobertas foram feitas de forma individual, sem estabelecer conexões entre elas, o que valoriza a importância e genialidade de cada indivíduo, mas ofusca a contribuição de uma grande quantidade de cientistas. Esse tipo de ensino não nos permite enxergar o conhecimento como um todo, mas como parte desconectadas, indicando apenas os avanços específicos em curtos espaços de tempo, que remontam a apenas uma geração de cada vez. Na verdade, deveríamos aprender que Galileu e Kepler compartilhavam ideias e trocavam correspondências. Seus livros foram lidos por Newton, que também teve acesso a manuscritos gregos antigos, bem como a textos da Idade Média. Ou seja, Newton teve à disposição uma grande quantidade de conhecimentos anteriores.

Outro caso emblemático é o de Albert Einstein, que, “sozinho”, desenvolveu a Teoria da Relatividade, mostrando que a física newtoniana estava incompleta. Na verdade, as ideias de Einstein também se apoiaram em contribuições anteriores, como as do matemático Hendrik Antoon Lorentz, que formulou a transformada que leva seu nome. Essas transformações explicavam fenômenos como a dilatação do tempo e a contração do espaço, mais tarde reinterpretados por Einstein como consequências naturais da estrutura do espaço-tempo. Outra influência veio do físico e filósofo austríaco Ernst Mach, conhecido por sua crítica aos conceitos de espaço e tempo absolutos da física newtoniana. O chamado princípio de Mach propõe que as forças inerciais experimentadas por um corpo, como a tendência de permanecer em repouso ou movimento, resultam da interação com toda a massa do universo, e não de propriedades inerentes ao espaço vazio. Essa ideia influenciou diretamente Einstein em sua busca por uma compreensão mais profunda da inércia e foi um dos pontos de partida para a formulação da teoria da relatividade geral. Assim, essas influências o ajudaram a desenvolver sua visão de um espaço-tempo interconectado, no qual a gravitação emerge da curvatura desse tecido quadridimensional. Mesmo no caso do efeito fotoelétrico, que rendeu o prêmio Nobel a Einstein, ele usou as ideias anteriores de Max Planck. Assim, temos mais um exemplo de que as grandes descobertas científicas não surgem de forma isolada.

Segundo a teoria geral da relatividade de Albert Einstein, a gravidade não é uma força que atua entre corpos massivos, como proposto na teoria da gravitação universal de Isaac Newton. Em vez disso, a relatividade geral descreve a gravidade como uma manifestação da curvatura do espaço-tempo, moldada pela presença de massa e energia.

Essa evolução das ideias não ocorre apenas na física, mas em todas as áreas do conhecimento. Na biologia, por exemplo, a teoria da evolução proposta por Darwin já era intuída muito antes. Na Grécia Antiga, Anaximandro de Mileto sugeriu que os seres humanos teriam evoluído a partir de outras espécies, ao refletir sobre a fragilidade das crianças ao nascer. Segundo ele, os seres humanos são extremamente dependentes nos primeiros anos de vida e não conseguiriam sobreviver por conta própria sem cuidados prolongados. Isso o levou a concluir que os primeiros seres humanos não poderiam ter surgido em sua forma atual, pois não teriam sobrevivido. Assim, ele sugeriu que os humanos teriam se originado de animais de outra espécie, possivelmente aquáticos, cujo estágio inicial de vida fosse menos vulnerável, permitindo sua sobrevivência e posterior evolução. Portanto, a ideia de que os seres vivos mudam ao longo do tempo já era discutida desde a Grécia Antiga.

“Na história da humanidade (e dos animais também) aqueles que aprenderam a colaborar e improvisar foram os que prevaleceram.” — Charles Darwin.

No entanto, a ideia de Anaximandro foi eclipsada por Aristóteles, que afirmava que seres vivos eram criados a partir de matéria inanimada e não evoluíam. Se deixássemos restos de comida em um local com muito lixo, ratos seriam criados. Em carnes estragadas, moscas surgiriam. Essa ideia, embora hoje seja bastante absurda, prevaleceu por mais de dois mil anos e só foi contestada por Francesco Redi, no século XVII. Redi realizou experimentos controlados com carne em frascos fechados e abertos, demonstrando que as larvas de moscas só apareciam quando os insetos adultos tinham acesso ao alimento. Seus estudos marcaram o início do declínio da teoria da geração espontânea, embora ela só tenha sido definitivamente refutada no século XIX por Louis Pasteur, que comprovou que micro-organismos também não surgem espontaneamente, mas vêm de outros micro-organismos presentes no ambiente. Em seus famosos experimentos com frascos de pescoço de cisne, ele mostrou que, mesmo quando um caldo nutritivo era fervido — eliminando todos os micro-organismos — , nenhum ser vivo surgia, desde que o frasco permanecesse fechado e o ar não trouxesse novos contaminantes. Quando o pescoço do frasco era quebrado, permitindo a entrada de partículas do ar, os micro-organismos voltavam a aparecer. Assim, Pasteur provou que a origem da vida observada em meios de cultura vinha de germes já existentes no ambiente, encerrando de vez a ideia da geração espontânea e abrindo caminho para a microbiologia moderna. Com esses avanços, Darwin teve a fundamentação necessária para explicar a origem das espécies. Logo, ele também estava sobre o ombro de gigantes.

A evolução da química não foi diferente da física e biologia. O conceito de substância pura foi essencial para refutar a antiga ideia dos quatro elementos, proposta inicialmente por Empédocles e difundida por Aristóteles. De acordo com essa teoria, o universo era composto por quatro elementos básicos: terra, água, ar e fogo. Com base na experimentação, Robert Boyle foi o primeiro a questionar essa visão, propondo que os verdadeiros elementos são substâncias que não podem ser decompostas em outras mais simples, uma noção embrionária da definição moderna de elemento químico. Por exemplo, a água pode ser decomposta em hidrogênio e oxigênio por eletrólise, portanto não pode ser considerada uma substância primordial. Os trabalhos de Boyle abriram caminho para que Joseph Priestley descobrisse o oxigênio, John Dalton propusesse uma forma de atribuir massas relativas aos elementos químicos e Antoine Lavoisier identificasse 33 elementos e enunciasse a lei da conservação das massas, segundo a qual, em um sistema fechado, a massa total dos reagentes é igual à massa total dos produtos.

“Não estou satisfeito com o fato de o fogo, o ar, a água e a terra serem os verdadeiros princípios das coisas…” — Robert Boyle.

Essas descobertas culminaram no trabalho de Dmitri Mendeleev, que organizou os elementos conhecidos em sua famosa tabela periódica. Ou seja, assim como os elementos foram organizados em uma estrutura coerente, como no jogo Paciência no qual cada carta só pode ocupar o lugar certo, o progresso científico também pode ser visto como uma sequência ordenada, em que cada avanço se apoia sobre descobertas anteriores. Assim, a química também evoluiu a partir das contribuições de uma série de cientistas, a maioria deles desconhecidos.

Na tabela periódica de Mendeleev, os elementos se organizam como no jogo Paciência.

Além da física, da química e da biologia, a filosofia também se estabeleceu por meio da acumulação de ideias. Começando com Tales de Mileto, considerado o primeiro filósofo a romper com o pensamento mítico, que atribuía os fenômenos naturais às ações dos deuses, seguimos uma linha de debate e contestação filosófica que passa por Anaximandro, refutado por Anaxímenes, e assim por diante, até chegar a Sócrates e Platão. Os filósofos pré-socráticos tentaram explicar o mundo segundo a razão, sem recorrer a influências míticas. Desse modo, eles sugeriam que o universo surgiu a partir de um princípio ou elemento fundamental, chamado arché, em vez de ações de deuses relatadas em contos que envolviam eventos míticos e mágicos. Depois deles, Sócrates e Platão deslocaram o foco da filosofia para o ser humano, a ética e o conhecimento. Assim, a filosofia nasceu de pensadores desconhecidos que contestaram as crenças tradicionais. Platão levaria esse pensamento adiante e criaria a primeira escola de pensamento, a Academia de Atenas.

A partir daí, como afirmou Alfred North Whitehead, “toda a filosofia ocidental não passa de notas de rodapé às páginas de Platão”. Ou seja, o pensamento filosófico ocidental teve início com os pré-socráticos e se desenvolveu ao longo do tempo, em um processo no qual cada novo filósofo procura ajustar, ampliar ou contestar ideias anteriores. Como sintetizou Hegel, a filosofia se desenvolve segundo a lógica da dialética, que opera em três momentos: tese (afirmação inicial), antítese (negação ou oposição à tese) e síntese (superação e integração das duas anteriores). Para Hegel, esse processo é o motor do desenvolvimento das ideias, da história e da própria realidade, funcionando como um movimento em espiral, no qual cada síntese se torna uma nova tese, impulsionando o progresso. Em outras palavras, a filosofia se desenvolve como uma corrida de revezamento, mas em que cada novo filósofo geralmente contesta o bastão que recebeu.

“Toda a filosofia ocidental não passa de notas de rodapé às páginas de Platão”. — Alfred North Whitehead.

Essa ideia de que o conhecimento é construído a partir de blocos anteriores também se manifesta claramente na tecnologia. Em 9 de janeiro de 2007, Steve Jobs subiu ao palco da MacWorld para anunciar o iPhone, um dispositivo que, à primeira vista, parecia um ato isolado de genialidade surgido do nada. O aparelho tinha uma tela sensível ao toque, um relógio digital, agenda, câmera fotográfica, um tocador de música e acesso à internet. No entanto, embora inovador, esses recursos eram fruto de avanços anteriores, muitos dos quais passaram despercebidos ou não alcançaram grande sucesso comercial.

Um exemplo curioso é o relógio de pulso Casio AT-550, lançado em 1982, que já contava com uma tela sensível ao toque, um recurso visionário para a época. Além disso, em 1994, a IBM havia criado o Simon Personal Communicator, considerado o primeiro smartphone da história. Ele permitia enviar e-mails, exibia a hora mundial, oferecia bloco de notas, calendário e até digitação preditiva. No entanto, sua bateria durava apenas algumas horas, limitando sua adoção e impedindo que se tornasse um sucesso global. Esses aparelhos evoluíram em modelos posteriores, como o Data Rover 840 e o Palm Vx, lançado em 1999. Ou seja, a invenção genial da Apple não surgiu do nada, mas foi o ápice de pequenos avanços que foram fundamentais para seu sucesso. Além disso, não podemos esquecer de outros dispositivos que já existiam e não estavam diretamente ligados ao iPhone, como câmeras digitais, tocadores de fita cassete ou DVDs, agendas eletrônicas e relógios digitais. Todos esses avanços tecnológicos foram, de certa forma, condensados em um único aparelho de 150 g, mudando radicalmente a maneira como nos conectamos e acessamos informações.

O Casio AT-550 e o Simon Personal Communicator foram os antecessores do iPhone.

“Geralmente imaginamos que a invenção acontece num estalo, com um momento de eureca que conduz o inventor a uma epifania assombrosa. Na verdade, os grandes saltos tecnológicos dificilmente têm um ponto de origem exato. De início, as forças que precedem uma invenção começam a se alinhar, muitas vezes imperceptivelmente, conforme um grupo de pessoas ou ideias convergem, até que ao longo de meses ou anos ou décadas elas ganham clareza, impulso e recebem ajuda de novas ideias e novos atores.” — Jon Gertner, historiador da ciência.

No caso do sistema operacional Windows, a história não foi diferente. Bill Gates e Paul Allen fundaram a Microsoft em 1975, como uma empresa de software com o objetivo de desenvolver e vender softwares para computadores pessoais, começando com um interpretador da linguagem BASIC para o Altair 8800. Em 1980, a IBM estava procurando por um sistema operacional para o IBM Personal Computer (PC). A Microsoft viu, então, uma oportunidade. Tim Paterson, um programador da empresa Seattle Computer Products, havia desenvolvido o QDOS (Quick and Dirty Operating System) em 1980. Por cerca de $50.000, a Microsoft comprou os direitos do QDOS e fez algumas modificações, criando o MS-DOS (Microsoft Disk Operating System). Esse sistema foi então licenciado para a IBM, e a Microsoft emergiu como uma gigante da informática.

A partir daí, a empresa cresceu e desenvolveu o Windows, que inicialmente era uma interface gráfica para o MS-DOS. Embora o uso de janelas em vez de linhas de comando pareça genial e uma tecnologia disruptiva, ele foi baseado em invenções anteriores. O conceito de interfaces gráficas com múltiplas janelas remonta a desenvolvimentos como o Xerox Alto, um computador desenvolvido na década de 1970 que apresentava a interface gráfica de usuário (GUI) moderna, com janelas, ícones e ponteiros, algo muito antes do lançamento do Windows. A Apple também desempenhou um papel importante nesse caminho, com o Apple Lisa e, posteriormente, o Macintosh, que popularizou o conceito de interface gráfica. Portanto, longe de ser um ato isolado de genialidade, a invenção do Windows foi, na verdade, o resultado de uma série de avanços tecnológicos e inovações de várias empresas e indivíduos ao longo de décadas.

O Microsoft Windows 3.1 foi um dos mais populares na década de 90.

Quando nos voltamos para a área de entretenimento digital, como os jogos de computador, a realidade não é diferente. Por trás de cada grande sucesso, há avanços anteriores frequentemente desconhecidos do público em geral. Consideremos o exemplo do Minecraft, o jogo de maior sucesso de todos os tempos, com cerca de 200 milhões de cópias vendidas. Criado de maneira independente por Markus “Notch” Persson, um programador sueco, seu desenvolvimento foi baseado em jogos anteriores, como Infiniminer (um jogo de mineração em blocos, desenvolvido por Zachtronics em 2009) e Dwarf Fortress (um jogo de construção e sobrevivência de mundo aberto).

A versão inicial desenvolvida por Persson era um jogo de exploração e construção em um mundo tridimensional gerado aleatoriamente, sem o estilo de mineração e construção característico da versão atual. Na verdade, o modo de mineração só foi incorporado depois que Infiniminer se tornou de domínio público. Esse jogo de mineração, no qual os jogadores cavam e constroem em um mundo gerado aleatoriamente, foi uma grande inspiração para Persson, que decidiu integrar a mecânica de mineração e coleta de recursos em seu próprio projeto ao observar a jogabilidade do Infiniminer. Além disso, jogos como Dwarf Fortress também influenciaram a ideia de um mundo aberto, o que possibilitou a criação de um ambiente dinâmico e expansivo, que se tornaria uma das marcas registradas do Minecraft. Em 2009, Persson lançou a versão Alpha do Minecraft, que rapidamente alcançou um sucesso mundial. Em 2014, a Microsoft adquiriu a Mojang, criada por Persson, por 2,5 bilhões de dólares. Assim, vemos que o jogo Minecraft não foi uma invenção isolada ou uma genialidade súbita, mas o produto de um ecossistema de ideias e inovações anteriores, mostrando como o conhecimento e as criações podem ser construídos a partir de ideias passadas, cada uma contribuindo para o sucesso do próximo passo.

Minecraft é o jogo de maior sucesso de todos os tempos.

Além disso, é importante mencionar que Persson recebeu muitos feedbacks em fóruns on-line, como o TIGSource (The Independent Games Source), uma comunidade voltada para desenvolvedores de jogos independentes. Esses fóruns desempenharam um papel crucial no desenvolvimento de Minecraft, oferecendo a Persson uma plataforma para interagir com jogadores e outros desenvolvedores, receber sugestões, relatar problemas e implementar melhorias. O feedback contínuo da comunidade foi essencial para aprimorar as mecânicas do jogo, desde a adição de novos recursos até a solução de bugs, sendo fundamental para o crescimento do jogo em seus estágios iniciais. Assim, toda a comunidade contribuiu para que o jogo alcançasse o sucesso que conhecemos hoje.

Todos esses exemplos mostram que o conhecimento não nasce na mente de um único indivíduo, mas é construído coletivamente ao longo da história de toda uma civilização. Outro exemplo mais recente são os modelos de linguagem de grande escala (em inglês, large language models ou LLMs). Talvez o mais popular seja o ChatGPT, da empresa OpenAI, que, ao contrário do que pode parecer, não surgiu do nada. Ele é o resultado de décadas de pesquisa em inteligência artificial, aprendizado de máquina e processamento de linguagem natural.

“A forma correta de pensar sobre os modelos que criamos é um motor de raciocínio, não uma base de dados de fatos. Eles não são memorizados, raciocinam.” — Sam Altman, CEO da OpenAI.

Modelos de linguagem têm suas origens nas redes neurais artificiais. A primeira rede neural artificial, o Perceptron, foi criada por Frank Rosenblatt em 1958. Inspirado no funcionamento de neurônios biológicos, o modelo era capaz de realizar tarefas simples, como a classificação binária. Nas décadas seguintes, especialmente a partir dos anos 1970 e 1980, os pesquisadores passaram a interligar vários “neurônios” em múltiplas camadas. Em 1986, Rumelhart, Hinton e Williams propuseram o algoritmo de retropropagação do erro, que permitiu treinar redes neurais profundas ajustando os pesos de cada conexão com base nos erros propagados das saídas para as camadas internas. Com o avanço da capacidade computacional e a disponibilidade em massa de dados, os anos 2000 marcaram o surgimento das redes neurais profundas (deep neural networks, em inglês). Um ponto de inflexão ocorreu em 2012, quando a AlexNet, uma rede convolucional profunda, venceu com ampla vantagem a competição ImageNet. Essa vitória demonstrou o potencial do deep learning e marcou o início da era moderna da inteligência artificial.

Tanto o neurônio biológico quanto o Perceptron recebem múltiplos sinais de entrada, processam esses sinais e geram uma saída única. No neurônio biológico, os sinais chegam pelos dendritos, são integrados no corpo celular e, se ultrapassarem um limiar, o neurônio dispara um potencial de ação pelo axônio. No Perceptron, as entradas são valores numéricos que são multiplicados por pesos, somados e passados por uma função de ativação que decide se haverá saída ou não

Em 2017, um novo salto aconteceu com o artigo “Attention is All You Need”, de Vaswani et al., que apresentou uma arquitetura de rede neural inovadora: o Transformer. Baseado no mecanismo de atenção, mais especificamente no self-attention, esse modelo permitiu o processamento simultâneo de sequências inteiras de entrada, capturando relações entre palavras independentemente da distância entre elas. A arquitetura Transformer revolucionou o processamento de linguagem natural e tornou-se a base para os modelos de linguagem mais avançados. A partir disso, a OpenAI desenvolveu o GPT (Generative Pre-Trained Transformer), um modelo treinado com grandes volumes de texto para aprender padrões linguísticos e prever a próxima palavra em uma sequência. Esse treinamento é realizado de forma autossupervisionada, ou seja, sem a necessidade de rotulagem manual dos dados. Posteriormente, o modelo pode ser aprimorado com feedback humano para aumentar sua utilidade, coerência e segurança. Desse processo surgiu o ChatGPT, uma versão do GPT adaptada e otimizada para diálogos com usuários, capaz de responder perguntas, auxiliar em tarefas e manter conversas de maneira fluida e compreensível.

O artigo “Attention is All You Need” introduziu o conceito por trás dos Transformers, que está na origem do ChatGPT e de outros modelos de linguagem. Fonte: https://arxiv.org/abs/1706.03762

Portanto, vemos que modelos como o ChatGPT, o DeepSeek, o Claude, entre outros, são fruto de uma longa cadeia de inovações incrementais. São criações que não seriam possíveis sem o árduo trabalho, as descobertas e os erros de milhares de pesquisadores e pesquisadoras ao longo das últimas décadas, muitas vezes desconhecidos do grande público, mas fundamentais para o avanço da tecnologia.

Assim, podemos afirmar que todo avanço do conhecimento é fruto de um esforço coletivo, desenvolvido ao longo de milênios. No entanto, frequentemente lembramos apenas daqueles que se destacaram por suas descobertas, esquecendo-nos do vasto exército de pensadores e pesquisadoras que pavimentaram o caminho antes deles. É claro que devemos celebrar os grandes nomes da ciência e da filosofia, pois seus trabalhos foram disruptivos, criando novos campos de pesquisa. Contudo, não podemos negligenciar aqueles cujas contribuições permitiram que esses grandes pensadores enxergassem mais longe. Celebrar exclusivamente esses poucos gênios tem impactado o desenvolvimento científico e gerado uma distância entre o conhecimento científico, tecnológico e filosófico e o público em geral. A ideia do "gênio solitário" nos sugere que para participar da construção do conhecimento, é necessário possuir uma genialidade precoce, e que apenas poucos afortunados têm a oportunidade de trilhar esse caminho. Essa ideia faz com a ciência, a tecnologia e filosofia se distanciem da sociedade em geral.

Por exemplo, quando pensamos em ciência, nomes como Newton, Einstein e Darwin são frequentemente lembrados. No entanto, poucos conhecem Ibn al-Haytham (também conhecido como Alhazém), Nettie Stevens, Alfred Russel Wallace ou os pesquisadores do Merton College de Oxford. Alhazém foi o pioneiro no uso do método científico, onde as teorias são verificadas por meio de experimentos controlados — um conceito fundamental para toda a ciência moderna. Nettie Stevens, por sua vez, fez a descoberta de que o sexo biológico dos organismos é determinado pelos cromossomos sexuais, especificamente pelos cromossomos X e Y, uma contribuição crucial para a biologia. Alfred Russel Wallace, de forma independente, chegou a conclusões similares às de Darwin sobre a teoria da evolução, demonstrando como grandes descobertas dependem não apenas de genialidade individual, mas do contexto histórico e do acúmulo de conhecimento coletivo. Já os pesquisadores do Merton College de Oxford, liderados por Thomas Bradwardine, desempenharam um papel crucial no desenvolvimento da física medieval, especialmente no século XIV. Eles foram pioneiros na aplicação da matemática à física, estabelecendo as bases para a análise quantitativa dos fenômenos naturais. Há ainda muitos outros pensadores anônimos, pouco ou nunca citados em livros de história, que foram fundamentais nas mais diversas áreas do conhecimento.

O objetivo deste texto é mostrar que precisamos reconhecer o trabalho de todos os pensadores, não apenas dos grandes génios, e que não é necessário ser talentoso para participar na construção do conhecimento, nem mesmo ser um cientista ou filósofo profissional. Tal como não é necessário jogar como Pelé ou Maradona para apreciar ou praticar futebol, não é necessário ser como Einstein, Kant ou Darwin para participar no desenvolvimento da ciência, da filosofia ou da tecnologia. Assim, todos nós podemos contribuir para o desenvolvimento do conhecimento. Basta termos curiosidade e procurarmos aprender continuamente. Atualmente, com o acesso à internet, livrarias e universidades, um vasto mundo de conhecimento está ao nosso alcance. Todos nós somos capazes de aprender e criar novas ideias, pois estamos sobre os ombros de gigantes. Por isso, aproveitemos essa vantagem para enxergar mais longe.

Caso tenham curiosidade em conhecer minhas pesquisas, visitem esse link:

https://sites.icmc.usp.br/francisco.

Até a próxima!

Para saber mais:

 

 

 

 

Comentários

Postagens mais visitadas deste blog

Kepler: o primeiro cientista de dados

Kepler: the first data scientist