sábado, 20 de novembro de 2010

Por que usar Linux? (Parte II)

  

  
o programa de avisos de erro do windows avisa também quando o programa de avisos de erro tem erro...quão confiável será essa informação? 


será que se eu escrever contratos codificados eu consigo fazer com que as pessoas assinem?? quem precisa de letras miúdas...


erro sobre erro...será que havia algum erro de fato?

erro: não ocorreu erro!
sim, isso realmente me parece um erro... =p

o dispositivo é um erro??

 sem problemas, basta teletransportar os arquivos extra para outra dimensão e pronto!
funcionou??isso não deveria ter acontecido...
melhor considerar essa possibilidade na próxima versão do programa...

aham
o windows definitivamente não entende o conceito de sucesso...

são só 127 aninhos...vai matar esperar um pouquinho??


sábado, 6 de novembro de 2010

A Mutabilidade do Método Científico

Resolvi falar um pouquinho sobre o método científico, devido a coisas que têm me feito pensar bastante à respeito...dessa vez não vou me estender muito (assim espero) até por falta de tempo...

Bom, pra introduzir o assunto, quando dizemos "O Método Científico" estamos, na verdade, fazendo referência a um conjunto de métodos de um tipo muito especial: por isso a classificação. A questão que quero analisar é: quais os tipos de critérios utilizamos para fazer esse tipo de classificação? em outras palavras,  o que diferencia estes métodos dos outros, tornando-os especiais?

Gosto muito de "raciocinar por eliminação", ou seja, analisar de que maneiras algo não pode ser feito e então verificar as possibilidades restantes. So, let's do it!

Uma característica comumente apontada como fundamental, no método científico, é a falseabilidade. Existem ao menos duas definições de "falseabilidade", as quais muitas vezes são usadas como se fossem equivalentes. São elas:
  • possibilidade de testar se algo é falso ou verdadeiro.
  • possibilidade de mostrar que algo é falso.
Embora essas duas definições se pareçam, elas contêm grandes diferenças. Eis o motivo: é impossível mostrar (consistentemente) que uma coisa válida é inválida,  dentro de seu limite de validade. Por exemplo, é impossível provar que a raiz quadrada de dois é um número racional, prova-se exatamente o contrário. Portanto a afirmação "a raiz de dois é um número irracional" não é  falseável, no sentido de ser possível demonstrar sua falsidade, e sim no sentido de ser possível demonstrar sua falsidade ou validade (validade, no caso).

A falseabilidade (como definida no primeiro item)  é importante sim no método científico, mas não é suficiente.  Como eu comentei no post anterior, a possibilidade de testar algo é altamente geral. Não há nada de muito especial nisso, a quantidade de métodos que podem ser encaixados aí é gigante, inclusive métodos com aproximadamente nenhuma  sistematização (se é que podemos chamá-los "métodos").

Bastante próxima à questão da falseabilidade, temos a questão da mutabilidade. Uma outra característica apontada como crucial, no método científico, é a possibilidade de mudanças: não há uma verdade imposta e absoluta, sempre que necessário podemos alterar os métodos e com eles  nossa visão de mundo.

Embora eu considere essa posição válida, em certo sentido, também a considero altamente perigosa, devido ao que ela pode vir a sugerir. A  possibilidade de mudar os métodos é altamente necessária. A possibilidade de aperfeiçoamento é muito importante (não apenas em ciência, mas em todas as áreas). Isso está relacionado ao fato de que ninguém tem todas as informações sobre tudo (isso não significa que não existam verdades absolutas, até porque isso é ilógico, significa apenas que nosso acesso tem limites, viéses, etc.),  ninguém pode dizer que entende tudo sobre tudo e que não tem mais nada a  aprender (o que não implica necessariamente em, a cada nova etapa, jogar fora tudo que se aprendeu na etapa anterior, embora possa ser necessário em  algumas situações). O lado perigoso dessa postura é supor que a possibilidade de aperfeiçoamento implica em sempre podermos mudar tudo completamente. Por exemplo, "hoje, ao aplicar meus métodos (que já se mostraram válidos nesse contexto) eu descubro que o mundo funciona de tal jeito, mas amanhã eu posso descobrir métodos que me digam exatamente o contrário". Isso se chama pseudociência. Mas é importante destacar um ponto que ajuda a gerar esse tipo de idéia: a diferença entre conclusão filosófica e trabalho científico.

Um método que já se mostrou válido continuará válido dentro de seu limite de validade sempre e eternamente (bom, talvez se as leis da natureza mudarem...  mas acho que não sobreviveríamos pra verificar...). Já conclusões filosóficas  tendem a mudar com uma freqüência bem maior (quando associamos a ciência à filosofia temos a impressão de que ciência é uma coisa completamente instável, nada confiável, diga-se de passagem). Mas porque isso? Devido à principal característica do método científico, que o diferencia dos outros e o torna especial: sitematização formal (métodos matemáticos). Embora filosofia possa ser feita de maneira sistemática, toda a maneira como ela é construída a torna muito menos confiável, a começar pela linguagem em que ela é expressa: não formal (não matemática). Linguagens não formais são bem mais confusas e limitadas. Como exemplo, analisemos a questão do "início" do tempo.
A seguinte frase pode não parecer absurda, inicialmente, mas formalmente a questão que ela levanta é totalmente descabida: se o tempo teve um início, o que havia antes do tempo?

Antigamente essa era uma questão bastante discutida por filósofos (não me peçam pra citar, não lembro). Se acreditava, inclusive, que o universo era eterno. Mais tarde, devido a descoberta do Big Bang (formalmente, no início), embora inicialmente bastante ridicularizado (esse nome, inclusive, foi dado de maneira pejorativa), a comunidade acadêmica acabou aceitando sua validade (devido a quantidade massiva de evidências) e rejeitando a idéia de que o tempo não teve um início.

Note-se que a concepção filosófica a respeito do universo, dos cientistas (Einstein, inclusive), não era baseada em ciência e definitivamente não era ciência. O que mudou não foi a ciência e sim as conclusões dos cientistas.

Mais um ponto importante que eu gostaria de levantar, é a questão do que significa  um método, modelo ou teoria ser válido. Um modelo válido deve poder fornecer resultados válidos. Um exemplo é o Modelo dos Epiciclos, para as órbitas dos planetas: sabemos que elas não são circulares e sim elípticas, mas o modelo fornecia resultados válidos dentro de um certo limite. Ele era uma aproximação da realidade e continua sendo até hoje. Continua válido dentro de seu limite de validade.

Fugindo um pouquinho desse assunto, há uma questão interessante no modelo dos epiciclos: ele é uma aplicação ruim da Navalha de Occam. A Navalha de Occan diz que devemos optar sempre pelo mais simples (essa é uma maneira de colocar). Sendo assim, parece muito mais simples criarmos um modelo em que as órbitas são circulares e não elípticas, já que círculos são muito mais simples do que elípses. No entanto, verifica-se que o modelo dos epiciclos é muito mais complicado do que o modelo das órbitas elípticas. Isso nos diz algo muito importante e talvez meio óbvio, algo que é localmente mais simples não necessariamente é mais simples globalmente, isto é, quando analisamos o quadro completo.

Bom, acho que por enquanto era isso...sintam-se livres pra comentar, criticar, etc..

quarta-feira, 28 de julho de 2010

Definições, vida e método científico...

Voltando a falar de definições, há dois conceitos que, embora essencialmente diferentes, apresentam problemas semelhantes na maneira como algumas de suas definições foram construídas. São eles o conceito de vida e o conceito de ciência. Neste post o conceito de vida não será abordado (devido a questões espaciais =p ). A idéia é reservar um post para isso, mas quem tiver interesse em detectar problemas nesta definição, pode começar lendo isso (mais específicamente a parte da definição biológica).

Segundo a wikipédia, "ciência" consiste, basicamente no seguinte:
  1.  Conhecimento adquirido através do método científico.
  2.  Sistema de adquirir conhecimento baseado no método científico.
 Vejamos a primeira definição. De acordo com esta definição, "ciência" é um tipo muito especial de conhecimento, trata-se do "conhecimento obtido através de...". O ponto principal nessa definição consiste em levar em conta a história do que está sendo definido: o conhecimento por si só não basta, é necessário que ele tenha sido obtido através do método científico. Note-se que um mesmo  conhecimento obtido através de métodos diferentes (o método científico e outro método qualquer) pode, nesse caso, ser considerado ciência e não ciência ao  mesmo tempo. Vemos que o que nos permite a identificação é o método e não o conhecimento em si. O único parâmetro necessário em nossa definição é, portanto, o método científico. Qualquer parâmetro acrescentado desnecessariamente provoca perda de eficiência. Aqui entra uma questão muito importante sobre definições: elas devem levar em conta as características do que está sendo definido, e não o histórico. Um exemplo é a entropia (que não é a  medida da desordem), a qual pode ser associada à medida da informação de um sistema, e é representada por uma função de estado. Uma característica muito importante sobre as funções de estado é que a sua variação não depende do caminho percorrido pelo sistema, apenas dos estados inicial e final. Boas definições seguem esse padrão (embora isso nem sempre seja possível). Partindo dessa idéia, podemos tentar reciclar a definição de ciência acima citada, definindo ciência como um conjunto de conhecimentos que tem determinado tipo de comportamento. A partir dessa definição genérica, devemos agora escolher quais os tipo de comportamento nos interessam. Nesse contexto, um tipo de padrão que parece interessante é: como a informação se comporta frente à realidade. O ponto central aqui é o que usualmente chamamos "falseabilidade". Diferentemente do que a palavra sugere, falseabilidade consiste na possibilidade de testar algo, de maneira a verificar sua validade. Podemos definir "ciência" como o conjunto de conhecimentos que passam no teste da falseabilidade. O problema de definir-se ciência com base apenas nesse conceito é que a definição torna-se abrangente demais. Mesmo o ato de informar as horas à alguém consistiria em "fazer ciência", já que o conhecimento adquirido pela outra pessoa seria passível de teste e estaria em concordância com a realidade. Vemos então que é necessário impor mais alguns limites em nossa definição, e esses limites estão diretamente relacionados ao método científico.

Analisemos a segunda definição da wikipédia. Poderíamos encontrar uma definição menos abrangente, mas sem parâmetros desnecessários. Ao invés de utilizar o método científico como um mero coadjuvante na definição, podemos colocá-lo no centro: ciência é o método científico. Essa definição nos permite identificar o que é e o que não é ciência com base em padrões de comportamento (note-se que o conceito de falseabilidade está embutido na definição, embora não seja o único parâmetro): que tipo de comportamento devemos esperar de um método para que ele possa ser considerado ciência? Qual a sua eficiência frente a outros métodos? em outras palavras, ao aplicar o método científico sobre uma quantidade inicial de informação qual o resultado obtido, e qual a diferença deste em relação aos resultados obtidos através do uso de outros métodos?

Essa definição aparentemente é mais adequada: suficientemente compacta, e genérica na medida certa.

A partir da definição de ciência, podemos então definir o que é pseudociência: toda e qualquer coisa, além do método científico, propagado como se fosse ciência. Sendo assim, uma pseudociência pode ser um fato ou não, pode ser falseável ou não. Por exemplo, se eu digo que um átomo de hidrogênio possui um elétron e afirmo que esse conhecimento é ciência, estou fazendo disso uma pseudociência, pois trata-se apenas de um conhecimento referente ao átomo de hidrogênio (lembrando que definir ciência como "conhecimento" é problemático).

É interessante, nesse ponto, analisar o que torna o método científico tão eficiente, e muito mais confiável do que a maior parte dos outros métodos de pesquisa (puramente experimentais, sem análise estatística, por exemplo, lembrando que estes não devem ser confundidos com a parte experimental do método científico). O grande salto da humanidade em termos de metodologia foi descobrir métodos que permitissem uma espécie de libertação da filosofia pura, possibilitando a construção de modelos e teorias de tal modo que estes pudessem caminhar por conta própria, sem terem de ser carregados, a todo instante, pelas filosofias de seus autores. O diferencial destes métodos sobre todos os outros de que se tem conhecimento, desde os primórdios da humanidade, consiste no uso explícito da matemática; mais do que uma nota de roda pé, o "core". Como bons exemplos de cientistas que usaram pesadamente o método ciêntifico, de maneira muito bem sucedida, podemos citar Hamilton, Maxwell, Gauss, Riemann e Lorentz. No século XIX, Hamilton, além de suas inúmeras contribuições à mecânica clássica e à óptica, formalizou (não sozinho) o chamado "princípio da ação mínima", ou "princípio da otimização", um dos princípios mais fundamentais da natureza, o qual é utilizado em todos os ramos da física (relatividade, mecânica quântica, eletromagnetismo, etc..). No mesmo século Maxwell desenvolveu uma das teorias mais brilhantes de todos os tempos, a Teoria Eletromagnética (unificou o Magnetismo e a Eletricidade através de quatro equações, as quais podem ser representadas por apenas duas que descrevem todos os comportamentos eletromagnéticos da natureza) a qual permitiu a descoberta da velocidade absoluta da luz, bastante desconcertante na época. É importante notar que a teoria de Maxwell não era um conjunto de filosofias e sim as próprias equações, caso contrário é bem possível que o éter luminífero fizesse parte da teoria. Ainda no século XIX Riemann, um matemático, generalizou os trabalhos de Gauss que resolviam o problema do quinto postulado de Euclides, problema este que deu muita dor de cabeça aos matemáticos por séculos. Os cinco postulados de Euclides, propostos por volta do século V a.C, geram a chamada Geometria  Euclidiana (na qual não existe curvatura). O quinto postulado, o qual pode ser formulado de muitas maneiras, diz basicamente que retas paralelas nunca se cruzam. O problema dos matemáticos era descobrir se esse quinto postulado realmente trazia algo de novo ou poderia ser descartado sem alterar o sistema. Gauss descobriu, assim como alguns outros matemáticos da época, que esse postulado realmente restringia o sistema, e a sua eliminação gerava outros tipos de geometrias, com curvatura constante. Riemann generalizou os trabalhos de Gauss e descobriu as geometrias de curvatura não necessariamente constante: as chamadas Geometrias Riemannianas, das quais a Euclidiana é um caso particular, em que a curvatura é nula. Mais tarde Einstein, no contexto da Relatividade Geral, descobriu que o espaço-tempo em que vivemos é curvo (Geometria Semi-Riemanniana) e que a gravidade é resultado dessa curvatura.  Por último, podemos citar Lorentz, físico que desenvolveu as chamadas Transformações de Lorentz, essenciais à Relatividade Restrita, além de outros inúmeros trabalhos.

Todos estes cientistas trabalharam brilhantemente utilizando extensivamente o método científico. Ao analisar, mesmo que superficialmente, seus trabalhos, encontramos um padrão: suas teorias eram constituídas de estruturas matemáticas. Obtemos assim, pistas sobre o que torna uma teoria eficiente, e como podemos definir "Teoria Científica" e "Método Científico". Obviamente, a parte experimental do método científico também tem papel muito importante, pois é através dela que podemos avaliar a validade de nossos métodos, modelos e teorias (como foi o caso dos trabalhos citados acima). Mas ela, por si só, não possui a eficiência do método científico completo, da mesma maneira que correr com apenas uma perna tende a ser menos eficiente do que com duas (embora seja mais  eficiente (em princípio) do que correr sem pernas, apenas se arrastando - a filosofia da ciência se encaixa nesse último caso).

O século XIX, porém, não foi marcado apenas por descobertas através do uso do método científico, mas pela descoberta de Darwin, bastante surpreendente, de mecanismos evolutivos básicos, embora seus métodos de pesquisa constituissem um atraso em relação aos métodos da época (e mesmo de séculos anteriores-vide Newton e Galileu), o que torna a descoberta ainda mais supreendente. Do ponto de vista filosófico e no que diz respeito à coleta de dados, Darwin fez um trabalho impressionante, deu um dos passos iniciais no estudo de como a natureza, mais especificamente os seres vivos, se altera com o tempo (apesar do não-uso da parte experimental do método científico). Depois de seu trabalho muita pesquisa tem sido desenvolvida nessa área, muitas delas auxiliadas pelo método científico. No entanto, ao que parece, a teoria de Darwin ainda não foi formalizada. A formalização da teoria nos permitiria analisar mais claramente como os postulados se relacionam com outros temas referentes à evolução, como por exemplo a possibilidade da origem através de um único ancestral e a própria origem da vida (não apenas a idéia intuitiva da relação entre esses temas).  Do ponto de vista científico esta formalização é indispensável. Uma de suas vantagens é a de  facilitar a análise quantitativa das evidências. (Note-se que embora os mecanismos evolutivos sejam comprovados, fatos, a análise crítica aqui não deixa de ser fundamental: é ela que nos permite aprimorar nossos métodos e modelos, e não implica necessariamente em descartá-los. A eliminação da "visão crítica" garante a estagnação de uma pesquisa. Sempre (ou quase?) é possível analisar fatos criticamente, afinal é isso que nos permite obter informações úteis a partir deles. Esse comentário refere-se a comentários que leio de vez em quando, os quais sugerem que não podemos analisar criticamente fatos, tais como a gravidade por exemplo, e que isso implicaria em substituí-la por alguma alternativa mirabolante).

Resumindo, definir ciência como conhecimento pode gerar contradições, e mesmo que não o faça não é uma definição otimizada. A definição mais adequada para ciência é: método científico. Qualquer coisa além disso, propagada como ciência, passa a fazer parte do grupo das pseudociências. A base do método científico não é a filosofia, é a matemática (mesmo na parte experimental).

Devemos lembrar sempre que não existem pessoas neutras, e sim métodos neutros. Eis a importância do uso do método científico. Embora o uso de  linguagem formal não garanta a infalibilidade de uma teoria, ele facilita a  verificação neutra.

Já dizia Galileu, um dos pais do método científico, há quase 400 anos atrás:

"La filosofia è scritta in questo grandissimo libro che contianuamente ci sta aperto  innanzi a gli occhi (io dico l'universo), ma non si può intendere se prima non s'impara a intender la lingua, e conoscer i caratteri, ne' quali è scritto. Egli è scrito in lingua matematica, e i caratteri son triangoli, cerchi, ed altre figure geometriche, senza i quali mezi è impossibile a intenderne umanamente parola; senza questi è un aggirarsi vanamente per un oscuro laberinto." (Saggiatore - Galileu Galilei, 1623)

Tradução: "A filosofia [note-se que a 'filosofia' a que Galileu se refere equivale ao que chamamos de 'Física', atualmente] está escrita nesse grandioso livro que  está sempre aberto a nossa contemplação (refiro-me ao universo), mas que não pode ser entendido sem que primeiro se aprenda a língua e conheçam-se os caracteres com os quais está escrito. Ele está escrito em linguagem matemática, e seus caracteres são triângulos, círculos, e outras figuras geométricas, sem as quais é humanamente impossível entender sequer uma de suas palavras; sem estes fica-se a vagar por um escuro labirinto."

terça-feira, 2 de março de 2010

42 Parte II: Gödel

Dando continuidade à série de postagens (iniciada aqui) vamos agora analisar questões referentes ao teorema da incompletude de Gödel. A idéia é discutir alguns detalhes de seu trabalho nessa área, deixando de lado a contextualização histórica (sintam-se livres para perguntar ao grande oráculo =) ). Para maiores detalhes é aconselhável buscar literaturas a respeito, de preferência com o mínimo de filosofia possível e máximo de fórmulas (livros filosóficos sobre esse assunto são beeem comuns, há grandes chances de que eles não sejam um bom ponto de partida).

De maneira geral, o trabalho de Gödel consistiu em provar que existem sistemas formais indecidíveis: sistemas que contêm teoremas cuja afirmação ou negação não pode ser provada dentro desses sistemas. O desenvolvimento do teorema da incompletude foi grandemente baseado em conceitos provenientes do Principia Mathematica(PM, este livro é excencialmente um livro de filosofia matemática), de Russel e Whitehead, assim como nos axiomas da Aritimética, de Peano, escritos com base na lógica do PM.

Um ponto-chave para que possamos entender em que consistiu o trabalho de Gödel é a questão da notação empregada, sendo também algo bastante peculiar ( já ouvi dizer que Gödel tinha uma visão "ortogonal" à sociedade, isso fica bem claro quando nos deparamos com sua notação, às vezes quase invertida em relação ao que esperaríamos "logicamente" =p ).  Dentre os símbolos utilizados vemos os símbolos básicos (constantes e variáveis), as classes de símbolos básicos (fórmulas, por exemplo), as classes de classes de símbolos básicos (classes de fórmulas, por exemplo),..., e símbolos utilizados para descrever conceitos externos ao sistema.  Esses conceitos externos são chamados por Gödel (assim como por uma série de outros autores, e originalmente por Hilbert) de conceitos "metamatemáticos". Essa expressão me parece um tanto quanto infeliz por atribuir à matemático um sentido tremendamente restrito (no contexto do trabalho de Gödel essa expressão sugeriria que a matemática refere-se apenas à aritimética). Sendo assim, utilizarei simplesmente a expressão "conceitos externos". Entre os símbolos básicos constantes podemos encontrar os seguintes: "~" (negação, embora às vezes seja utilizado para indicar equivalência), "f" (sucessor imediato), "V" (ou). Quanto às variáveis, há uma infinidade (literalmente) de tipos. As variáveis do primeiro tipo são elementares (representam números naturais), as variáveis do segundo tipo são classes de variáveis elementares, e assim sucessivamente. Entre os símbolos utilizados para representar conceitos externos encontramos o conceito de prova (símbolo "B"), o qual é utilizado da seguinte maneira:
xBy
isso é, x é uma prova (seqüência de passos necessários, a partir dos axiomas, à obtenção) da fórmula y. Nessa mesma linha encontramos:
Bew(y)
ou seja, y é uma fórmula provável (y pode ser provada), isso é equivalente a dizer que existe um x tal que x é uma prova de y:
Bew(y)=(Ex)xBy
conforme a notação de Gödel. Outro conceito fundamental é o de generalização, simbolizado por  "Gen" e utilizado da seguinte maneira:
v Gen
isso é, a classe de símbolos a é genérica em relação à sua variável livre v.  Intimamente relacionado a este último conceito encontramos o conceito de substituição, simbolizado por Sb (ou Subst, ou ainda Su, com algumas variações na notação), o qual será visto mais à frente. 

Outro ponto importante, um dos pontos centrais no  desenvolvimento do teorema de Gödel, diz respeito a um mapeamento entre os símbolos utilizados e os números naturais, ou seja, cada símbolo ou conjunto de símbolos poderia ser representado por um número natural, de acordo com determinadas regras.

Feitas essas considerações, vamos agora analisar sequencialmente o desenvolvimento do teorema de Gödel.  Os axiomas da Aritimética (de Peano) foram tomados como ponto de partida. A fim de utiliza-los de maneira eficiente para os  dados propósitos, Gödel os escreveu de acordo com conceitos provenientes do PM, dentre outras fontes. Propôs então um mapeamento entre a simbologia utilizada e os números naturais. Em seguinda definiu o conceito de recursividade (eis um exemplo de recursividade). Lançou então quatro proposições referentes a este conceito (cujas provas foram apresentadas ou indicadas). A partir dos conceitos de recursividade e dos axiomas em si, Gödel gerou uma série de definições, contidas em 46 fórmulas. Nessa série de fórmulas pode-se ver o uso do conceito de "herança", ou seja, uma dada fórmula pode aproveitar definições de fórmulas anteriores. O próximo passo consistiu em lançar uma quinta proposição, referente a relações recursivas. Como exemplo de relação recursiva (conforme a definição de Gödel) podemos citar a relação "sucessor imediato", dada por f
2= f1= ff0
 Gödel então definitiu o que ele chamou de "sistema w-consistente". Segundo essa definição, um sistema w-consistente é um sistema que não possui uma classe a para a qual a seguinte proposição é válida:

Na expressão acima o símbolo Flg(k) representa o menor conjunto de fórmulas que contém todos os axiomas e todas as fórmulas de k e é fechado no que diz respeito à relação "conseqüência imediata de" (k é uma classe de fórmulas). O símbolo Sb representa o conceito externo substituição (conforme mencionado anteriormente), essa fórmula indica a substituição da variável v, em a, pela variável de mesmo tipo z(n) (símbolo correspondente ao número natural n, de acordo com o mapeamento de Gödel). A expressão acima diz que existe um n tal que a fórmula resultante da substituição de v por z(n), em a, está contida em Flg(k), e a negação da generalização de a em relação a v também está contida em Flg(k).

Gödel, adimitindo a consistência do sistema, propôs então que para toda a classe de fórmulas k, recursiva e w-consistente, sempre haverá uma classe r (classe de símbolos, fórmula), tal que nem a fórmula "v Gen r", tampouco a fórmula "Neg(v Gen r)" (Neg indica negação) pertencem a Flg(k) (ou seja, essas fórmulas não podem ser provadas dentro do sistema k).Dentre outras proposições (referentes a aplicação dos seus resultados à aritimética), Gödel provou ainda que, para uma dada classe de fórmulas k, recursiva e consistente, a proposição que estabelece a sua consistência/inconsistência pode  ser indecidível (o que não se aplica a todos os possíveis k's).


Há quem conclua que estes resultados indicam a incompletude da matemática. O que vemos porém é o seguinte, Gödel desenvolveu uma estrutura finita para lidar com um número infinito de elementos (um número finito de axiomas, os quais se referem aos números naturais e às possíveis operações entre eles). Nesse caso, um número infinito de proposições podem ser provadas formalmente. No entanto, sempre restam proposições não contidas no sistema. Esse resultado sugere que estamos tentando representar algo infinito (a aritimética) através de uma estrutura finita: por mais que adicionemos axiomas ao nosso sistema sempre haverá proposições indecidíveis, pois essa estrutura finita não é capaz de conter todas as informações referentes ao que ela pretende representar. Sendo assim, parece mais sensato supor que a aritimética, e conseqüentemente a matemática, não é algo finito, muito menos uma mera construção da mente humana.

 Mas será que podemos aplicar os resultados de Gödel à física? ou seja, seria impossível desenvolvermos uma "Teoria do Tudo" ? Isso depende. Se o universo for infinito (estrutura não necessariamente quantizada), os resultados de Gödel poderiam ser aplicáveis, desde que se conseguisse um mapeamento adequado. Se o universo for finito, no entanto, os resultados não podem ser aplicados, pois a estrutura de Gödel trata de um número infinito de elementos, o que impossibilita o mapeamento. 

Conclusão: se o universo for finito de fato, é possível que um dia encontremos a tal Teoria do Tudo, e quem sabe possamos então descobrir qual é a pergunta formal cuja resposta é 42... =p

ps: o título do paper de Gödel é "Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I". Existe uma série de livros os quais são traduções desse paper (não completas, em geral), com comentários adionais. Um deles é o "On Formally Undecidable Propositions of Principia Mathematica and Related Systems", publicado pela Dover Publications.


sexta-feira, 5 de fevereiro de 2010

42 Parte I: métodos

Em aguns dos posts anteriores mencionei problemas que podem surgir devido ao uso de certas definições comuns. No último post o Rafael fez algumas sugestões referentes à continuação do assunto (desconsiderem os primeiros quatro comentários que aparecem lá =p ). Gostei das sugestões e resolvi escrever sobre esses assuntos. Porém decidi reservar mais de um post para isso ( pelo menos dois ), pois há muitas questões envolvidas ( algo como "a vida o universo e tudo mais"  =p ), de maneira que abordar o assunto em um mesmo post, mesmo que de maneira superficial, poderia ser um tanto quanto inviável (especialmente quando a blogueira é um tanto quanto prolixa). Neste primeiro post pretendo abordar questões referentes aos fundamentos do problema: uma espécie de contextualização. Um dos objetivos dos posts é discutir questões referentes ao teorema da incompletude de Gödel, o que não vai ser feito nesse primeiro post.

Comecemos analisando o cerne da questão das definições: a metodologia que usamos para construí-las.  A descoberta de uma metodologia assustadoramente eficiente, capaz de permitir, dentre outras coisas, a construção de definições e análise das conseqüências dessas definições, constitui um dos pilares dos maiores avanços (registrados) da humanidade em  termos de conhecimentos e aplicações. Essa metodologia nos permite construir o que chamamos linguagens formais, ou linguagens matemáticas (não confundir "linguagem matemática" com "matemática"). A base da metodologia consiste  em separar um conjunto de símbolos (às vezes chamados signos) cujo significado deve ser totalmente estabelecido (ou seja, com ambigüidade controlada), não possuindo qualquer significado além do que lhes é explicitamente atribuído. Constroem-se então regras que estabelecem de que maneira podemos manipular e combinar os signos (regras de formação e transformação). Essas regras, em princípio, podem ser totalmente arbitrárias. O resultado desse tipo de abordagem é que muito provavelmente o nosso sistema será inconsistente, isto é, permitirá a existência de contradições internas. Esse tipo de fenômeno impõe limites no modo como construímos o nosso sistema. Mas e por que descartar sistemas construídos de maneira inconsistente? Voltemos à questão dos paradoxos, mencionados no post anterior. Um paradoxo pode ser representado por uma fórmula inconsistente, cuja negação implica em sua afirmação e cuja afirmação implica em sua negação (no post anterior o tipo de paradoxo mencionado era um pouco diferente). Temos aqui uma indeterminação lógica, ou seja, obtemos um resultado "vazio": não podemos tirar conclusões sobre a validade dessa proposição.

A partir dos símbolos e das regras de formação construímos as fórmulas, chamadas axiomas, que constituirão nosso sistema. Esses axiomas não devem poder ser obtidos uns dos outros, caso contrário poderíamos eliminar os axiomas excedentes (navalha de Occam). Podemos então, através dos métodos de transformação e a partir dos axiomas, derivar outras fórmulas, chamadas teoremas. Os teoremas também podem ser obtidos através das regras de formação, assim como fizemos com os axiomas. Nesse caso é necessário demonstrar que esses teoremas decorrem dos axiomas. Se pudermos provar que existe algum teorema, obtido através das regras de formação, que não decorre dos axiomas, porém é uma verdade dentro do sistema (não gera problemas de consistência), teremos provado que esse sistema é incompleto. Há ainda a questão da consistência: se pudermos provar que dois teoremas contraditórios decorrem dos axiomas, teremos provado que nosso sistema é inconsistente.

Voltemos à questão das definições. Existe um sistema, construído através do uso de metodologias análogas àquelas que descrevi, chamado Teoria dos Conjuntos. Nesse sistema existe uma entidade chamada classe. Mais específicamente, existe um tipo especial de classe, chamado classe de equivalência. Fazer uma definição, por definição, significa separar elementos em classes de equivalência: quando fazemos uma definição na realidade estamos separando objetos em grupos diferentes de acordo com determinadas propriedades satisfeitas ou não pelos objetos (dito em linguagem totalmente informal).  Formalmente, uma classe de equivalência é uma classe cujos elementos pertencem a um subconjunto R, chamado relação de equivalência:

ou seja, a relação de equivalência R está contida no conjunto formado pelo produto cartesiano entre um dado conjunto A e ele mesmo (caso particular do produto cartesiano). Além disso uma relação de equivalência deve possuir as três seguintes propriedades (sendo a,b e c elementos do conjunto A):
  1. Reflexividade: o par ordenado (a,a) pertence a R.
  2. Simetria: se o par ordenado (a,b) pertence a R, então o par ordenado (b,a) também pertence.
  3. Transitividade: se o par ordenado (a,b) pertence a R e o par ordenado (b,c) pertence à R então o par ordenado (a,c) também pertence à R.
Toda relação de equivalência possui um ou mais subconjuntos, chamados classes de equivalência, os quais contém ao menos um elemento de R (cada  elemento de R pertence a uma única classe).

Podemos agora analisar mais um aspecto da diferença entre linguagens formais e não-formais. As definições que fazemos freqüêntemente possuem problemas: geram contradições, ambigüidades não controladas, etc.. Existem, inclusive, definições não-formais dentro de áreas sérias de pesquisa que apresentam problemas quando analisadas formalmente (usando classes de equivalência). Um exemplo é a definição biológica de espécie (o problema ocorre na terceira propriedade das relações de equivalência: espécies em anel não obedecem essa propriedade). Por esses e por outros motivos, devido à maneira como linguagens não-formais são construídas, devemos ser muito cuidadosos ao obter informações em linguagem não formal (as do meu blog, por exemplo =) ). Eis a desvantagem da filosofia da ciência frente à ciência: erros filosóficos são extremamente comuns e altamente fáceis de cometer. Além disso a verificação desses erros pode não ser viável se utilizarmos apenas linguagens informais (o que não significa que se usarmos linguagens formais resolveremos todas as possíveis questões filosóficas, principalmente se houver uma quantidade infinita delas, também não significa que informações em linguagem não-formal devam ser descartadas). A questão se resume ao fato de que há métodos que se mostram tremendamente mais eficientes do que outros em uma quantidade absurda de situações: eis o que faz da ciência algo tão assustadoramente útil e belo.

sexta-feira, 22 de janeiro de 2010

Comportamentos bizarros....


É engraçado como podem surgir alguns comportamentos um tanto quanto bizarros , gerados devido à junção de duas coisas: muito tempo na frente do computador e cansaço...

Se você recentemente passou por alguma das situações abaixo, talvez deva considerar uma pausa (ou consultar um "especialista" hehe =p)...

(todos as histórias são reais O.o, mas os "personagens"  não serão citados...)
  1. Tentar olhar a hora no canto superior (ou inferior) direito do espelho enquanto você se arruma pra sair.
  2. Tentar matar uma mosca que passa em frente ao monitor do computador, usando o cursor do mouse.
  3. Tentar abaixar o volume da pessoa que está conversando (pessoalmente!) com você, ajustando o volume no seu computador. (sim, conheço alguém que fez isso hehe)
  4. Tentar tirar a TV do "standby" mechendo o mouse.
  5. Procurar o teclado do computador pra conversar com alguém que está ao seu lado.
  6. Lembrar dos emotions ao ver expressões faciais, ao invés de lembrar das expressões faciais ao ver os emotions. 

Essas foram as histórias que eu lembrei...alguém lembra de mais alguma?

ps: mas todo mundo sabe que o problema tá no cansaço, e não no uso do computador...=p

sexta-feira, 8 de janeiro de 2010

Definições, Paradoxos e Verdades Absolutas...

Alguns conceitos e definições de palavras às vezes geram paradoxos interessantes. Paradoxos podem ser representados, de maneira simples, através da seguinte expressão lógica: ou seja, se a afirmação A é verdadeira conseqüentemente ela deve ser falsa. Entre os exemplos menos divertidos podemos citar o conceito de "normal". Segundo esse dicionário a palavra "normal" pode significar tanto algo que se encontra dentro das normas, quanto algo que é comum. Vejamos um exemplo: quando dizemos que um computador está funcionando normalmente estamos dizendo, em outras palavras, que este computador está funcionando dentro das especificações. O paradoxo pode surgir se ao mesmo tempo utilizarmos "normal" como sinônimo de "usual". Isso porque se a maior parte dos computadores, em determinado local, não estiver funcionando dentro das especificações, teremos de concluir que neste local um computador normal não é normal. Se, no entanto, deixarmos de considerar "normal" como sinônimo de "usual", podemos eliminar os paradoxos e garantir uma definição menos subjetiva.

Outro exemplo, um pouco mais interessante, é o das famosas "verdades absolutas". Trata-se da seguinte expressão: não existem verdades absolutas. Eis mais algumas expressões que seguem a mesma linha:

  • Toda regra tem sua excessão.
  • Eu não possuo crenças(no sentido de "eu não acredito em coisa alguma").
  • Eu não possuo não-crenças(no sentido de "eu acredito em toda e qualquer coisa").
  • Eu sempre minto.
e assim por diante. Analisemos o caso das verdades absolutas. Adimitir que não existem verdades absolutas implica em adimitir que essa afirmação só pode ser verdadeira quando ela não é uma verdade absoluta (já que adimitimos que estas não existem). Sendo assim, concluímos logicamente que a afirmação "não existem verdades absolutas" não pode ser aplicada a todas as situações, portanto existe ao menos uma verdade absoluta.

Em princípio, podemos fazer uso da seguinte expressão lógica para definir o que são 'verdades':ou seja, se a condição A é satisfeita, então B é necessariamente verdade. Caso A não seja satisfeita, B pode ou não ser verdade. Eis um exemplo:
  • Condição A: morte do ser humano X.
  • Afirmação B: o ser humano X não está respirando espontaneamente.

A morte de X implica em ele não estar respirando espontaneamente. Sendo assim, sempre que sabemos que alguém está morto, sabemos que essa ex-pessoa não respira. No entanto, o fato de um ser humano não estar respirando não implica necessariamente em ele estar morto, caso contrário morreríamos toda vez que mergulhássemos em piscinas, e voltaríamos à vida quando saíssemos para respirar...

Um dos problemas aqui, é que se não pudermos obter informações diretamente de B (sendo B uma afirmação qualquer), referentes à sua veracidade, seria necessário conhecimento a respeito de alguma condição que necessariamente implicasse em B (ou não B), caso fosse verdade. Esse tipo de problema não ocorre com as chamadas 'Tautologias'. Eis um exemplo de tautologia:
ou seja, A ou não A. A operação ou (símbolo V) faz com que a expressão lógica acima seja verdadeira quando a proposição da esquerda é verdadeira (A), independente da veracidade da proposição da direita, ou quando a proposição da direita (¬A) é verdadeira, independente da veracidade da proposição da esquerda. Sendo assim, uma tautologia é uma verdade absoluta já que ela é sempre verdade independente do valor de A.

Mas, voltando às questões relacionadas ao conceito de "normal", o que seria um ser humano normal? o que seriam atitudes normais?

(momento "excessivamente filosófica mode on")

Bom, vamos à minha opinião. Todas as nossas atitudes têm algum tipo de conseqüência. Parece razoável afirmar que estas conseqüências influenciam em algum nível as outras pessoas. Isso ocorre principalmente porque vivemos em sociedade. Algumas atitudes claramente são prejudiciais tanto para nós mesmos quanto para os outros (provavelmente uma acabará implicando na outra em algum momento). Outras são prejudiciais, mas não tão claramente (às vezes precisamos colocar o dedo no fogo pra perceber que dói). Existem atitudes que são prejudiciais principalmente devido a questões culturais. No entando, existem também atitudes que são prejudiciais devido a coisas mais básicas, questões relacionadas à biologia, física e por fim matemática. São esses os tipos de atitude que eu considero não-normais. Sendo assim, as atitudes não prejudiciais são atitudes normais. Esses dois tipos de atitude, conceitualmente falando, aparentemente dão origem ao que as pessoas costumam chamar de "certo" e "errado" (embora esses conceitos acabem mudando de acordo com a cultura).

Quanto a "seres humanos normais", todos sabemos que nascemos com defeitos de fábrica. Sendo assim, provavelmente não existem seres humanos normais. Também percebemos que existe uma certa relação entre atitudes normais/anormais e pessoas normais/anormais por ambos os lados, isso é, uma pessoa com maior grau de anormalidade terá uma tendência maior a agir de maneira anormal, por outro lado atitudes anormais podem aumentar o grau de anormalidade das pessoas. Para o primeiro caso temos como exemplo a necessidade da existência de cadeias e manicômios, para o segundo sabemos, por exemplo, que um filho de uma pessoa alcólatra provavelmente terá uma tendência maior a se tornar alcólatra (devido a questões genéticas). Sendo assim, aparentemente as anormalidades são altamente normais, no que diz respeito à sociedade...=p

Resumindo:
  • se verdades absolutas não existem então existe ao menos uma verdade absoluta;
  • se toda regra tem sua excessão então esta regra também tem sua excessão. Logo, nem toda a regra tem sua excessão;
  • se eu não possuo crenças então eu possuo a crença de que não possuo crenças. Logo, possuo ao menos uma crença;
  • se eu não possuo não-crenças então eu não acredito que possuo não-crenças. Logo, possuo ao menos uma não-crença;
  • se eu digo que sempre minto esta deve ser uma mentira. Logo, eu nem sempre minto;
  • pessoas não normais são normais =p...(se usarmos simultaneamente duas das definições do dicionário)

Moral da história: é tudo uma questão de definições (as quais podem ser consistentes ou não).... =p