Resumos das comunicações

Prof. Dr. Roberto Barbosa de Castilho (UFRRJ)

Título: A transição dos quatro elementos para o elemento químico e o estabelecimento da Química Moderna

Resumo: A doutrina dos quatro elementos ou raízes constituiu a primeira tentativa de explicar as transformações químicas. Ao introduzir ideias como transformação e transmutação, tal doutrina teceu explicações sobre a pluralidade da vida a partir de quatro elementos que constituam princípios e matérias. Baseada em qualidades sensíveis, a doutrina postulava a existência dos elementos fogo, ar e água, os quais tinham propriedades de transformação, e do elemento terra, o qual era inerte. A teoria não oferecia explicações simplórias e pouco convincentes sobre a diversidade das substâncias. O aprofundamento da teoria era limitado por vários obstáculos epistemológicos, como, por exemplo, a experiência ou observação primeira, o substancialismo, a opinião, a linguagem e o instinto de conservação [Bachelard, 2002]. Ao afirmar que a estrutura da matéria é semelhante aos quatro elementos tangíveis e sensíveis, e que a pluralidade emergia da combinação dos mesmos, a teoria dos quatro elementos não possibilitou o arcabouço teórico necessário ao desenvolvimento da Química moderna, como hoje a entendemos como Ciência. Somente a matematização das qualidades sensíveis e a análise instrumental dos quatro elementos macroscópicos em separado – principalmente os mais sutis ou ideais – pôde levar à noção de elemento químico – diferente dos elementos naturais – noção esta fundamental para a evolução da análise química e da síntese. A experimentação racional e dirigida levou à proposição do elemento químico como limite da análise química [Oki, 2002]. O estudo do elemento água levou à descoberta de que ele é, na verdade, um composto molecular, e não um simples elemento. O estudo do elemento ar mostrou que ele é, na verdade, uma mistura complexa de átomos e moléculas. O elemento fogo, possivelmente um dos mais ricos em obstáculos epistemológicos, foi considerado durante muito tempo uma matéria imponderável, isto é, resistente à análise química. A sua estrutura só foi revelada nos estudos de combustão da matéria com base na teoria atômica – mostrou-se que o fogo não é um elemento, e sim uma forma de energia [Hankings, 1985; Rossi, 1997]. O caso do “elemento” fogo é um exemplo de que só o desenvolvimento da experimentação não é suficiente; precisou-se de uma teoria abstrata que foi além dos elementos sensíveis da realidade. O estudo elemento terra, o mais mundano de todos e que foi até desconsiderado como elemento por alguns partidários da teoria dos quatro elementos, propiciou provas materiais (“terras” com propriedades distintas, cinzas, etc.) para o surgimento de um racionalismo químico e científico [Bachelard, 1990]. A transição da protoquímica dos quatro elementos para a Química moderna se deve a uma ruptura epistemológica, o que levou à superação obstáculos epistemológicos para o surgimento do conceito de elemento químico, o qual não pôde ser concebido pela aplicação do 1empirismo ingênuo baseado na teoria dos quatro elementos. A posterior conceituação do elemento químico como o átomo, caracterizado experimentalmente a partir de qualidades abstratas como o número atômico, estabeleceu derradeiramente a Química moderna como ciência da matéria e de suas transformações.

_____________________________________________________________________

Prof. Dr. Marcelo Hawrylak Herbst (UFRRJ)

Título: Contra o reducionismo da química à física: a filosofia da química pede passagem

Resumo: Nossa pretensão é debater a autonomia da química enquanto disciplina científica, e combater as tentativas de redução da química à física. Mas por que debater a autonomia de um campo científico tão antigo e tão estabelecido como a química? Ao contrário das filosofias da física e da biologia, a disciplina filosofia da química está ainda na sua infância, e o combate ao reducionismo da química à física ocupa lugar de destaque. Tanto mais compreensível quando se sabe que a crença mais comum, inclusive entre os químicos, é que desde o advento da mecânica quântica, a química seria totalmente explicada pela física, logo, seria reduzida explicativamente à física. Em outras palavras, trata-se de realizar um trabalho de reafirmação da autonomia da química, em relação à sua redução à física. Em primeiro lugar é necessário definir o que entendemos por redução. Eric Scerri, um dos maiores expoentes da filosofia da química, ao aceitar a dependência ontológica da química pela física, defende que a discussão neste campo deve ocorrer sobre a redução epistemológica da química à física, colocando a questão central de verificar “se nossa descrição corrente da química pode ser reduzida à nossa mais profunda descrição corrente da física, nominalmente a mecânica quântica – com suas consequências explanatórias.” O que significa dizer que se a química pode ser reduzida à física, ou melhor, à mecânica quântica, então a mecânica quântica deve ser capaz de produzir explicações ab initio de fenômenos químicos, sejam energias moleculares, ângulos de ligação, momentos de dipolo, velocidades de reação, etc. Como é de amplo conhecimento, a pedra de toque da mecânica quântica é a equação de Schrödinger. Ora, o problema para os químicos é que o único sistema completamente explicado a partir de primeiros princípios pela equação de Schrödinger é o átomo de hidrogênio. Ao se passar para o átomo de hélio a equação produz apenas soluções aproximadas, tendo em vista que a partir daí nos encontramos no terreno do problema de várias partículas (many body problem), que produz necessariamente soluções aproximadas. Ser capaz de produzir soluções exatas somente para o átomo mais simples da tabela periódica certamente não é um feito muito animador quando se pensa na complexidade das moléculas produzidas diariamente nos laboratórios químicos mundo afora. Isso, no entanto, nunca deteve os químicos que se ocupam das aplicações da mecânica quântica aos sistemas químicos, ao contrário, há inúmeros algoritmos bem adaptados para a solução aproximada de problemas específicos, com excelentes graus de concordância com dados experimentais, como testemunha o vasto campo da química teórica. Além dessa clara limitação, conceitos como elemento químico, ligação química e estrutura molecular não são produzidos pela mecânica quântica a partir de primeiros princípios, mas emergem num patamar explicativo de complexidade superior, tipicamente químico e irredutível ao comportamento das partículas elementares que, de fato, compõem qualquer molécula. Sustentamos, portanto, que as explicações reducionistas interferem na adequada compreensão dos fenômenos abarcados pela ciência química.

_______________________________________________________________

Prof. Dr. Helio Ricardo da Silva (UFRRJ)

Título: O Presente como Chave para o Passado em Biologia: Abdução e a natureza inferencial de dois Conceitos Fundamentais para a Biologia Evolutiva

Resumo: Abdução é forma de inferir causas a partir de enunciados que descrevem observações de efeitos, com os quais interagimos. Esta forma de produzir hipóteses explicativas sobre os fenômenos do cotidiano é empregada na produção de hipóteses (nem sempre testáveis) em diversas ciências históricas, como Cosmologia, Geologia e Biologia. Nas ciências biológicas, particularmente em Sistemática Filogenética, o reconhecimento de que as inferências abdutivas são centrais aos processos investigativos é recente. Em linhas gerais, os sistematas (ou filogeneticistas) inferem, com base na teoria de descendência com modificações, a origem de novas espécies e de novos atributos dos organismos ao longo do tempo. As hipóteses são apresentadas de forma conjunta e complexa com o uso da metáfora de uma árvore (árvore da vida, filogenia, ou árvore filogenética), onde organismos vivos ou fósseis (observados no presente) estão conectados a ancestrais que viveram no passado. Em sistemática, a aplicação deste modo de gerar hipóteses tem consequências sobre o reconhecimento de espécies como entidades básicas da disciplina. Pretendo discutir como o reconhecimento da relação entre as inferências abdutivas em ciências biológicas se relaciona com o que compreendemos como espécie. Neste processo, o conceito de homologia—o conjunto de semelhanças especiais, que conecta herança e ancestralidade comum às observações que descrevem as similaridades entre organismos vivos (e fósseis)—será também reavaliado.

_______________________________________________________________

Prof. Dr. Claudio Maia Porto (UFRRJ)

Título: O Sistema dialético na construção da realidade física

Resumo: Hegel defendeu que o sistema tripartite formado pela reunião de três elementos sucessivos, tese, antítese e síntese, constituía um esquema dinâmico fundamental para a compreensão da evolução da realidade. Neste sentido, observamos que uma estrutura dialética semelhante de fato representa bem as fases históricas da formação da consciência humana a respeito da realidade física. Primeiramente, verificamos uma etapa em que a visão dessa realidade se forma, antes de tudo, por uma projeção do eu sobre a Natureza, manifesta sobretudo no caráter fortemente anímico dos elementos materiais, no finalismo da concepção de mundo e na prevalência da ideia, não distante do pensamento mágico, da associatividade e da similitude como chaves explicativas dos fenômenos naturais; a este primeiro momento sucedeu outro, caracterizado pelo empirismo mecanicista, em que a realidade material foi concebida como um sistema autônomo, regido por uma causalidade impessoal e completamente desvinculado da subjetividade humana. Desta contradição emergiu a síntese, a partir da visão proporcionada pelo Universo quântico, em que sujeito e objeto se entrelaçam de forma indissociável na constituição da realidade física.

__________________________________________________________________

Mario Tito Ferreira Moreno (Mestre/UFRRJ)

Título: Acerca dos critérios de crenças na filosofia de David Hume

Resumo: A questão dos milagres, tratada em duas partes na Investigação Sobre o Entendimento Humano de Hume é alvo de críticas de alguns comentadores, como Fogelin, que acreditam que o autor não se debruçou cuidadosamente com relação ao tema. Ao abrirmos e explorarmos a temática dos milagres na filosofia humeana vamos de encontro à discussão sobre a relação das crenças fundadas nos testemunhos. O foco do presente trabalho é compreender de que maneira Hume avalia os testemunhos dos homens, especialmente o testemunho relativo aos milagres. Para tal empreitada contaremos com o suporte teórico de Fogelin em A Defense of Hume on Miracles, especialmente em seu primeiro capítulo no qual o autor nos aponta a estrutura do argumento humeano. Ao dividirmos as avaliações testemunhais que Hume faz, chega-se a dois pontos: a) O foco na qualidade do testemunho e de quem os oferece e b) A natureza do evento atestado. Todavia Hume utiliza esses dois métodos para auxiliar seu ceticismo acerca do testemunho, porém quando temos um testemunho livre de suspeitas, e que seja com relação a uma questão de fato nosso assentimento é quase que inevitável. Pontualmente é o mesmo testemunho que fundamenta boa parte das nossas ideias imaginativas acerca dos eventos históricos, crer ou não em dado evento é uma questão de probabilidade e razoabilidade empírica, e cada indivíduo tem a capacidade de julgar isso, por mais que alguns julgamentos sejam mais senso comum do que outros. O texto trata de uma possível inviabilidade de desqualificar os relatos milagrosos apenas utilizando o critério probabilístico, por tratar-se de questões de fato, portanto a crença em tais juízos, em geral, passa antes por uma avaliação da reputação do indivíduo e em última instância, uma boa vontade do receptor do relato. Não havendo distinção epistêmica entre os juízos milagrosos e os históricos, muito embora relatos históricos estejam mais próximos a eventos vivenciados, os milagrosos não podem ser descartados, apenas enfraquecidos por terem forças e vividez menores. Por fim se faz interessante comparar a crença nos juízos históricos e a crença nos eventos milagrosos.

__________________________________________________________________

Maria Helena Silva Soares (Doutoranda/UERJ)

Título: Objetividade científica e Natureza: Um estudo a partir da naturalização da racionalidade feminina

Resumo: A história da objetividade, como nos esclarece Lorraine Daston em As imagens da objetividade: a fotografia e o mapa, texto de 1999, e na obra Objectivity, publicada em 2007, é relativamente curta comparada à noção de verdade, que marca a história da filosofia natural ocidental desde os gregos antigos. Daston defende que, diferentemente da noção de verdade, podemos falar em várias espécies de objetividade científica, não apenas distintas umas das outras, mas que se encontram, por vezes, em conflito recíproco. Isto porque a objetividade é sempre definida em contraste com a subjetividade. Mais por uma aversão às interferências externas ao mundo fechado da racionalidade científica do que por uma confiança plena no trabalho da razão. Neste sentido, recorreremos à história das ciências para entendermos de que modo a objetividade é uma construção social e histórica que está diretamente ligada, mesmo que de maneira negativa, aos aspectos subjetivos que percorrem as práticas científicas. Para isso, analisaremos a naturalização do feminino na racionalidade científica, e a função da permanência do binarismo de gênero na construção da própria noção de natureza. É também em um trabalho de Daston, publicado em 2014, que encontramos uma discussão sobre o que ela chama de falácia naturalista da Modernidade. Ela afirma que o discurso científico sobre a natureza foi usado tanto por devotos quanto por seculares, tanto por revolucionários quanto por reacionários. A autoridade da natureza passou, com isso, a espelhar padrões de valores tanto para as ciências quanto para a sociedade. Assim, a naturalização da racionalidade feminina, como inferior ao correlato masculino, foi permitida por meio do obscurecimento da polissemia do discurso sobre a natureza. Deste modo, apresentaremos uma crítica à ideia de ciência naturalmente objetiva e neutra que corrobora uma imagem de ciência imparcial em relação à questão de gênero. Recorreremos, para isso, às análises presentes nos estudos sobre ciências e nas epistemologias feministas que tencionam contestar estas dicotomias como dados naturais ou caixas-pretas.

__________________________________________________________________

Zander Lessa Gueiros (UFF)

Título: A Fábrica de fenômenos: o real científico na epistemologia histórica de Gaston Bachelard

Resumo: O filósofo francês Gaston Bachelard (1884-1962), em sua epistemologia histórica (julgadora, normativa, recorrente, descontínua), apresenta a concepção filosófica de ciência como uma espécie de Fábrica de fenômenos. Em contraposição à definição tradicional de ciência como descrição do real imediato e direto, como representação de uma realidade natural, dada, Bachelard compreende a ciência como produção de fenômenos tecnicamente constituídos, como construção racional e experimental do objeto científico. Para o epistemólogo francês, o pensamento científico contemporâneo não parte do real, mas avança em sua direção, a partir das mais audaciosas abstrações teóricas e técnicas. O objeto científico não nos é dado previamente na natureza, mas resultado de laboriosas determinações racionais e experimentais, de uma sequência orgânica , sempre renovada, de pesquisas e perspectivas racionais da experiência científica. A atividade racional da ciência contemporânea, as condições reais e efetivas do saber científico atual requerem um afastamento do dado não trabalhado, do imediato não refletido, do conhecimento ordinário fornecido pela natureza. O objeto científico é constantemente repensado, reanalisado, matematizado, retificado. Não se trata de uma problemática já constituída, mas de um programa de experiências marcadas por profundas reorganizações racionais, por bruscas mutações intelectuais nos métodos científicos, de uma permanente reformulação técnica. No laboratório, há descobertas. Ele é o abrigo do novo, axioma da ciência contemporânea. Na natureza há apenas possibilidade de contemplação, de especulação de um dado à espera de ser apreendido por um sujeito cognoscente. Ela é a instância da sedução sensível, região que refrata o refinamento intelectual. Ao passo que nos aproximamos da física e química contemporânea, devemos nos afastar da natureza para entrar numa Fábrica de fenômenos, que industrializa o real, que produz o real científico através da cooperação entre a teoria e a técnica. Para Bachelard, o racionalismo que preside a ciência atual é o racionalismo aplicado, ativo, dinâmico que, ao instruir e ordenar a experiência ao ampliar os domínios de conhecimento, alargar as bases racionais, aprimorar os instrumentos de medida, aperfeiçoar as técnicas, transforma o real científico (que não existe por si só), enriquece-o. Sendo assim, o vetor epistemológico da ciência contemporânea tem como direção o movimento dialético entre a teoria (que esclarece a experiência) e a técnica (que dinamiza a pesquisa) promovido pelo racionalismo aplicado, como sentido o deslocamento do racional ao real e a como intensidade a produção do real científico que, segundo Bachelard, não está na natureza, mas é realizado na Fábrica de fenômenos.

__________________________________________________________________

Davi da Silva San Gil (Doutorando/UERJ)

Título: Um pós-positivista avant la lettre: Otto Neurath e a reconstrução da ideia de racionalidade científica

Resumo: É possível afirmar sem risco de exagero que as teses comumente reputadas ao positivismo lógico estiveram nos centros dos debates em filosofia da ciência ao longo do século XX. Em sua primeira metade, como programa de investigação hegemônico; ao longo da segunda metade, como o ponto de onde partiriam boa parte das críticas – advindas tanto das interlocuções próximas de nomes como Karl Popper e Willard Quine quanto de críticos mais afastados, como Thomas Kuhn e, mais radicalmente, Paul Feyerabend. Por isso é especialmente notável o trabalho revisionista levado a cabo desde o final do último século e especialmente ao longo deste. No bojo da já extensa literatura produzida por este programa revisionista, um dos aspectos mais interessantes consiste na emergência das ideias do filósofo e sociólogo austríaco Otto Neurath. Além de ser um dos membros fundadores do círculo de Viena – o principal grupo neopositivista – Neurath foi o autor de uma teoria da ciência e da racionalidade científica que muitas vezes se afasta ou mesmo se opõe ao que correntemente se associa ao corpo de teses neopositivistas. No texto de 1913 Os Viajantes de Descartes e o Motor Auxiliar, Otto Neurath abre com uma das passagens mais célebres do Discurso do Método, em que Descartes sugere que, uma vez que no plano prático da vida, é impossível encontrar a orientação segura que a razão nos provê no plano teórico, é importante encontrar regras de um caráter distinto, provisório, a partir das quais possamos conduzir as ações. A clássica noção cartesiana de moral provisória consiste portanto no apelo a um recurso provisório de orientação diante de uma situação onde a razão torna impossível decidir. Partindo disto, Neurath propõe o que, à época, se mostrava como uma de suas mais radicais posições – especialmente quando confrontada às teses clássicas do positivismo lógico ao qual sempre é historicamente associado: o caráter constitutivamente provisório que Descartes atribui ao plano prático da vida humana, Neurath estende ao plano teórico. O texto supramencionado será a base para a comunicação que ora proponho, e que por sua vez se centra em duas noções especialmente caras a Neurath: a de pseudoracionalismo (PR) e de motor auxiliar (MA). Ainda que tenham aparecido em um artigo de 1913, portanto uma década antes do próprio surgimento do neopositivismo, podemos encontrá-las direta e indiretamente referidas em trabalhos posteriores, indicando sua relevância ao longo de todo o desenvolvimento das ideias do autor. Sendo assim, nosso propósito, para além da elucidação de noções no escopo da teoria de um autor, será mostrar seu papel tanto para demarcar a distância crítica de Neurath em relação às teorias do progresso científico contemporâneas ao autor (como no caso da ideia de PR) quanto (como no caso da noção de MA) para propor um programa não-reducionista de unidade da ciência.

__________________________________________________________________

Michelle Cardoso Montoya (Mestranda/PPGLM)

Título: O argumento epistêmico e o papel de inferências dedutivas nas objeções de Searle a Quine

Resumo: Em “ Two Dogmas of Empiricism” (1951), Willard Von Orman Quine (1908-2000) expõe diversas críticas a adoção da distinção analítico-sintético , outrora proposta por Immanuel Kant (1724-1804), na Crítica da Razão Pura (1a versão, 1781; 2a versão , 1787), vindo a ser explicitada com mais clareza por Kant também em Prolegômenos a toda metafísica futura que possa apresentar-se como ciência (1783). Ao buscar interpretar semanticamente a distinção analítico-sintético no referido artigo, Quine chega a conclusão inicial de que tal distinção seria obscura por dois motivos principais. Primeiro, por conservar a discussão acerca do que é analítico ou não a um nível metafórico. Isto é , quando Kant sugere na Crítica da Razão Pura que um juízo é analítico quando o conceito de seu predicado está contido implicitamente no de sujeito, parece-nos que, de acordo com Quine, Kant poderia querer dizer algo mais além do que isso: ele queria dizer que um enunciado é verdadeiro em virtude do significado. Segundo, porque se formos considerar sua leitura semântica da distinção, teríamos outro problema, o de definir o que é significado. Responder a está pergunta, para Quine seria complicado, senão impossível, já que a noção de significado se conectaria com noções ainda mais obscuras, e um exemplo delas é a de sinonímia. Logo, após a realização de outras críticas, Quine resolve propor o abandono da distinção analítico-sintético por considerá-la uma pseudo-distinção, deslocando-a de um âmbito de tratamento parcialmente epistêmico para estritamente semântico, tornando inviável sua adoção. Veremos que John Rogers Searle (1932-?), em sua célebre obra Speech Acts (1969), rejeita essas críticas, partindo de um axioma muito básico, a saber , o do argumento epistêmico, nos dizendo que, “ um enunciado é analítico, se e somente se, eu sei o que ele significa”. Portanto, defenderemos que o referido argumento, por sua vez, proporciona a possibilidade de abertura de uma cadeia de inferências dedutivas que não são ampliativas, mas explicativas acerca de nosso conhecimento. Ao propor o argumento epistêmico, Searle parece retomar algumas características fundamentais dos juízos analíticos vistas em Prolegômenos de Kant, sendo a mais principal, a função explicativa que possuem, momento em que podemos realizar uma interface interpretativa não só semântica como Quine o fez, parecendo rejeitar tanto o papel ampliativo quanto explicativo acerca dos juízos analíticos, mas também epistêmica, acerca do problema de se definir o que é analítico. E com isso, mostraremos de que forma o argumento epistêmico se constitui como uma tentativa de retomar uma das características fundamentais dos juízos analíticos, a saber, a de serem explicativos, por meio da possibilidade de abertura de uma cadeia de inferências dedutivas não-ampliativas.

__________________________________________________________________

Gustavo Bertolino (Mestrando/Unicamp)

Título: Co-referência e arquivos mentais

Resumo: O que garante que duas representações mentais de um mesmo objeto sejam reconhecidas indubitavelmente como sendo do mesmo objeto? Ou seja, quando que um sujeito sabe que duas representações co-referem? Em Semantic Relationism, Fine defende que relação de coordenação entre expressões responde essa questão. Fine argumenta que o falante sabe que duas representações quaisquer co-referem se elas são estritamente co-referenciais, isto é, é semanticamente requerido do falante saber que elas referem ao mesmo objeto, seja qual for este objeto e mesmo que o falante não tenha conhecimento de que objeto se trata. Esse tipo de co-referência Fine chama de co-referência estrita e a relação de coordenação é modelada em função justamente desse tipo de co-referência. Defendo, porém, que essa noção, conceito chave para caracterizar a relação de coordenação, padece de circularidade e, por isso, compromete o recurso explicativo adotado por Fine. Alguns filósofos, com o objetivo de fornecer uma explicação mais robusta, defendem que a co-referência estrita se deve a capacidade de rastreio (tracking capacity) sobre o objeto representado, fazendo com que a co-referência seja transparente ao sujeito/falante e, com isso, explica porque a co-referência é conhecida nesses casos. Porém, uma vez que a capacidade de rastreio é falível, a co-referência estrita é posta em questão. Recanati, em seu Mental Files in Flux, defende a ideia de co-referência estrita fraca para lidar com casos problemáticos como o de rastreio de objetos. Meu objetivo é analisar essa interpretação sob a luz de sua proposta de arquivos mentais.

__________________________________________________________________

Marcus Renato Alves Araújo (Doutorando/USP)

Título: Subdeterminação e Escolha de Teorias

Resumo: A tese da subdeterminação alega, em linhas gerais, que se duas teorias mutualmente incompatíveis são empiricamente indistinguíveis, então não há razão para justificar a escolha de uma dessas teorias em detrimento da outra. Em outras palavras, isso equivale a dizer que se duas teorias distintas implicam exatamente as mesmas consequências observacionais, então elas são equivalentes do ponto de vista confirmacional, admitindo-se, para tanto, que o modelo hipotético-dedutivo de suporte evidencial seja adotado como o padrão. Nesse sentido, tudo aquilo que confirma ou desconfirma uma das teorias também confirma ou desconfirma a outra. Não haveria, por conseguinte, nenhum possível recurso à experiência que possibilitasse a escolha racional de uma teoria e a subsequente rejeição da outra. Ademais, a tese da subdeterminação é frequentemente apresentada como estabelecendo que qualquer teoria possui uma rival empiricamente equivalente, ainda que não atualmente. Nessa perspectiva, toda teoria seria subdeterminada em relação as observações e o processo de escolha de teorias, um aspecto fundamental da prática científica, revelar-se-ia carente de fundamento. Essa conclusão parece desafiar o caráter de objetividade e, até mesmo, a racionalidade envolvida no processo de escolha entre teorias rivais. É manifesto que a tese da subdeterminação fornece embasamento para uma visão antirrealista da ciência, pois se as teorias são inelutavelmente subdeterminadas pelos dados observacionais, não seria possível afirmar que, em um contexto de competição entre duas teorias empiricamente indistinguíveis, uma teoria fosse considerada verdadeira (ou aproximadamente verdadeira) em relação a teoria rival. É relevante mencionar, por outro lado, que embora a possibilidade de recurso a aspectos não-empíricos ou teóricos (virtudes ou falhas) possa ser útil no sentido de fornecer critérios pragmáticos para escolha entre sistemas teóricos empiricamente equivalentes, tais considerações, embora relevantes, não se afiguram como razões suficientes para fundamentar o tipo de escolha envolvida nos casos em tela, como procuraremos deixar claro. Em nossa apresentação, iremos abordar a tese da subdeterminação a partir de suas possíveis consequências em relação a racionalidade envolvida no processo de escolha de teorias. Para tanto, iniciaremos por uma exposição precisa do problema, realizando um exame panorâmico das posições defendidas na literatura, procurando determinar se é plausível afirmar que a tese da subdeterminação apresenta, de fato, um desafio recalcitrante para o caráter racional da escolha de teorias.

__________________________________________________________________

Paulo Pirozelli Almeida Silva (Doutorando/USP)

Título: Da filosofia à sociologia: Thomas Kuhn, racionalidade e a formação de consenso

Resumo: O objetivo deste trabalho é apresentar as principais consequências que a concepção kuhniana

de racionalidade traz para uma análise sociológica do desenvolvimento científico. Os comentários de Kuhn sobre o tema da racionalidade são breves e esparsos. No entanto, suas observações sobre escolhas de teorias permitem extrair e elaborar os traços centrais do que, para ele, seriam escolhas racionais, e portanto, da própria natureza da racionalidade. O aspecto mais relevante desta concepção seria sua considerável amplitude: racional seria todo julgamento baseado nos valores que definem a atividade em questão. No caso prática científica, seria racional aquela escolha assentada em valores cognitivos como precisão, abrangência, simplicidade e consistência. Uma definição assim abrangente suscita, porém, um problema explicativo: como é possível que, dada tamanha possibilidade de discordância racional, constate-se com tanta frequência a presença de um consenso (relativo) sobre a melhor teoria dentro de um determinado campo de estudos? Lembremos que, para Kuhn, o consenso em torno de um paradigma é a marca da ciência normal. A resposta kuhniana a este aparente paradoxo envolve uma mudança de escopo disciplinar: da filosofia para a sociologia. A explicação para o fenômeno da produção de consenso não recairia sobre a busca de metodologias individuais de escolha (filosofia), e sim sobre a existência de mecanismos sociais de produção de consenso e dissenso (sociologia). Como já anunciava em A estrutura das revoluções científicas: “Nossa preocupação não será com os argumentos que realmente convertem um ou outro indivíduo, mas com o tipo de comunidade que cedo ou tarde se reforma como um único grupo” (p. 195). Ao longo desta apresentação, elencaremos e descreveremos brevemente os principais mecanismos de formação de consenso nas comunidades científicas. São eles: pedagogia científica, teoria de onda, avaliações condicionais e marginalização de membros resistentes. Como antes, as observações explícitas de Kuhn sobre estes temas são fragmentárias. No entanto, alguns comentários dispersos em seus escritos, em especial sobre a resolução de controvérsias científicas, assim como a compreensão sistemática das ideias presentes em seus trabalhos, permitem vislumbrar esses mecanismos. Além disso, recorremos a diversos filósofos e sociológicos que desenvolveram abordagens complementares àquela, muitos dos quais perseguindo explicitamente problemas e caminhos indicados por Kuhn – como Philip Kitcher e Fred D’Agostino, por exemplo. Tendo descrito brevemente esses mecanismos de criação e destruição de consenso, discutiremos o que implicam para uma sociologia da ciência inspirada nas ideias de Kuhn. Que tipo de investigação esta concepção sobre racionalidade e consenso suscita para a pesquisa em história e sociologia da ciência? Que perguntas ela levanta e como devem ser respondidas? Quais métodos se mostram mais adequados a este programa de pesquisa?

__________________________________________________________________

Prof. Dr. Tiago Luis Teixeira de Oliveira (Colégio Pedro II)

Título: Ainda é possível ser realista experimental?

Resumo: O realismo experimental (RE) ou realismo de entidades, tal qual proposto por Hacking (1983) e Cartwright (1983) procurou apresentar-se como uma alternativa ao realismo de teorias e ao empirismo construtivo. O critério experimental do RE permitiria aos cientistas sustentarem a crença naquelas entidades inobserváveis com as quais foi possível uma interação causal. Ao mesmo tempo, tal critério não impõe a crença na verdade das teorias em que tais entidades aparecem. Ao evitar sustentar-se em virtudes teóricas e capacidade explicativa das teorias, o RE evitou alguns problemas bastante sérios enfrentados pelas formas de realismo teórico mais comuns. Entretanto, para que o RE fosse considerado viável, seria preciso superar severas críticas, resumidas por Suárez (2008) a três: 1) inadequação, 2) incoerência e 3) implausibilidade. (1) diz respeito ao fato de que o critério não seria adotado realmente pelos cientistas. (2) é a consideração de que é impossível dizer qualquer coisa substantiva sobre uma entidade sem recorrer minimamente às teorias onde tais entidades aparecem. Já (3) acusa o RE de estabelecer uma diferença arbitrária entre explicação teórica e explicação causal, convencionando que somente a última é guia para a verdade. O objetivo de minha comunicação é discutir a pertinência dessas críticas, propondo uma versão aprimorada do RE baseada em Suárez (2008), Chakravartty (2007) e Egg (2012) capaz de responder aos três problemas. Para tanto, pretendo considerar o RE apenas numa interpretação epistêmica, isto é, propondo graus de garantia epistêmica falíveis e diferenciando propriedades formais (com garantia teórica) das propriedades materiais (com garantia causal) atribuídos às entidades inobserváveis. De acordo com tal distinção, as propriedades materiais são epistemicamente mais garantidas que as formais, pois aquelas são definidas, seguindo a proposta de Egg (2012), como propriedades que sabemos o que significa modificá-las. Sendo assim o RE não seria incoerente, já que as teorias teriam um importante papel de propor propriedades materiais e formais a entidades. Tampouco seria implausível, uma vez que a materialidade não é questão de convenção, mas de experimentação. Caso haja tempo hábil, também mostrarei como a detecção do neutrino conta a favor da ideia de que o RE é mais adequado à prática científica do que o realismo das novas predições e o empirismo construtivo.

__________________________________________________________________

Cleber de Souza Corrêa (Doutorando/USP)

Título: Carnap’s metaontological stance and existence deflationism: a response to Bueno

Resumo: One fundamental aspect of Carnap’s mature metaontological stance is his deflationism towards existence claims. In a nutshell, Carnap’s brand of deflationism amounts to the thesis that assertions and questions of existence (“numbers exist” or “do numbers exist?”, for instance) can be straightforwardly ascertained or answered based only on considerations internal, or relative, to what he called “linguistic frameworks”. Establishing that the sentence “numbers exist” is true, for instance, is merely a matter of checking whether a certain set of rules and norms are in place (a framework of arithmetic) and whether the assertion in question complies with it. As Sidelle (2016) puts it, the answers one gets are “metaphysically unexciting”. Carnap does not deny that, by using a framework, one is thereby ontologically committed to the entities the framework is about. But he certainly wants to curb the strength or seriousness of this commitment. Discussing the nature of ontological commitment within Carnap’s metaontological stance is my aim in this presentation. More particularly, I consider the view briefly presented in Bueno (2016). According to Bueno, Carnap’s strategy of acknowledging an internal way of admitting abstract entities is not satisfactory from the empiricist’s point of view. For Bueno, frameworks provide a setting where existence claims are true. That, in turn, supports a form of realism. Although a relative one, Carnap’s “internal realism” (my words, not Bueno’s) would not be enough to placate empiricists’ qualms. My discussion will be divided in two parts. In the first one, I present in a more detailed manner how internal existence claims are to be understood within Carnap’s metaontological stance. In the second one, I discuss Bueno’s charge that internal existence claims support a form of realism. Briefly put, my conclusions are the following: first, true internal existence assertions are such that anyone sufficiently competent with the relevant framework is bound to accept (irrespectively of their preferences for desert landscapes or not); second, Carnap’s distinction between internal and external questions (and assertions) is meant to undermine the grounds on which empiricist claims and demands (or realist claims and demands, for that matter) are made.

__________________________________________________________________

Thiago Sebastião Reis Contarato (Mestre e Doutorando/PPGLM)

Título: A Modalidade Alética em Aristóteles

Resumo: Aristóteles usou frequentemente as modalidades aléticas (a saber: “necessário”, “impossível”, “possível” e “contingente”) como base para seu sistema filosófico. No entanto, para alguns comentadores críticos, como Dancy (em “Aristotle and the Priority of Atuality”), Judson (em “Eternity and Necessity in De Caelo I.12”) e Williams (em “Aristotle and corruptibility”), Aristóteles teria cometido erros grosseiros em suas descrições modais ou ao usá-las. Contra esses comentadores, buscaremos defender a posição de Jaakko Hintikka (em “Time and Necessity”) e Simo Knuuttila (em “Modality in Medieval Philosophy”). Segundo estes autores, esses comentadores críticos estariam cometendo um grave anacronismo ao analisar Aristóteles com base no sistema contemporâneo de alternativas sincrônicas, quando ele, na verdade, usaria um modelo de modalidades diacrônicas sem alternativas sincrônicas. Para esclarecer melhor, o modelo sincrônico é aquele em que teríamos uma descrição da modalidade alética em termos de mundos possíveis, com situações contrafactuais. Diferentemente desse modelo, temos o chamado “modelo diacrônico”, que envolve uma análise das modalidades aléticas ao longo de uma única linha de tempo apenas no mundo atual. Na hipótese de Hintikka e Knuuttila, dado que não tinha linhas temporais alternativas, restou para Aristóteles trabalhar com base numa quantificação a respeito do tempo. Grosso modo, o “necessário” equivale a “ocorre em todo o tempo”, “impossível” é “não ocorre em todo tempo”, “possível” é “ocorre em algum tempo” e “contingente” seria “não ocorre em algum tempo”. Dado que, atualmente, a área da “Estatística” é exatamente aquela que estuda ou analisa a frequência de algo ao longo de um tempo, é plausível dizer que Aristóteles descreve as suas noções modais num “Modelo Estatístico” ou “Modelo de Frequência Temporal”, como Hintikka denominou. Para a descrição desse modelo, será necessário que Aristóteles tenha defendido o “Princípio de Plenitude”, que reza o seguinte: “Toda possibilidade genuína se realiza em algum momento”. Este princípio foi primeiramente identificado por Arthur Lovejoy (em “The Great Chain of Being”) e Hintikka o considerou como sendo uma ponte entre tempo e modalidade alética. Além de se evitar que se atribuam anacronicamente falácias a Aristóteles, provavelmente, a maior vantagem desse modelo diacrônico é a facilidade de sua formalização, pois pode ser facilmente representado em termos da Lógica de Predicados de Primeira Ordem (L.P.P.O.). Portanto, nessa hipótese, modalizar aleticamente seria equivalente a quantificar o tempo, de modo que as modalidades aléticas aristotélicas podem ser incluídas como parte integrante da L.P.P.O. Como um modelo diacrônico, o modelo modal de Aristóteles seria uma ferramenta diferente, de modo que pode ser anexada às nossas compreensões atuais a respeito da modalidade, pois teria o aspecto filosoficamente interessante de ser restrita apenas ao mundo atual. Por fim, apresentaremos brevemente algumas dificuldades desse modelo, principalmente no que diz respeito às “restrições de aplicabilidade”, isto é, os limites da aplicação dentro do Sistema Aristotélico. Mesmo com essas dificuldades, teremos que reconhecer que Aristóteles usa constantemente do tempo, nem que seja como uma “muleta”, para apoiar as descrições de suas noções modais aléticas.