Vous êtes sur la page 1sur 21

Epistemologa bayesiano Publicado por primera vez jue 12 de julio 2001, la revisin sustantiva Mi 26 de marzo 2008 Epistemologa bayesiana"

se convirti en un movimiento epistemolgico en la 20 siglo, a pesar de sus dos caractersticas principales se remontan a la homnima reverendo Thomas Bayes (c. 1701-1761). Estas dos caractersticas son las siguientes: (1) la introduccin de un aparato formal de la lgica inductiva, (2) la introduccin de una prueba de auto-derrota pragmtica (como lo ilustra Argumentos holandeses libro) para epistmica racionalidad como una forma de extender la justificacin de la leyes de la lgica deductiva para incluir una justificacin de las leyes de la lgica inductiva. El aparato formal en s tiene dos elementos principales: el uso de las leyes de la probabilidad como restricciones de coherencia en grados racionales de la fe (o grados de confianza) y la introduccin de una regla de inferencia probabilstica, una regla o principio de condicionalizacin . Epistemologa bayesiana no surgi como un programa filosfico hasta los primeros axiomatizaciones formales de la teora de probabilidades en la primera mitad de la 20 siglo. Una aplicacin importante de la epistemologa bayesiana ha sido el anlisis de la prctica cientfica en la teora bayesiana de confirmacin . Adems, una rama importante de la estadstica, estadstica bayesiana , se basa en los principios bayesianos. En psicologa, una rama importante de la teora del aprendizaje, la teora del aprendizaje bayesiano , se basa tambin en los principios bayesianos. Por ltimo, la idea de analizar los grados de creencia racional en trminos de comportamiento apuestas racional llev a la 20 el desarrollo de un nuevo tipo de teora de la decisin siglo, la teora de la decisin bayesiana , que es ahora el modelo terico dominante para el anlisis tanto el descriptivo y normativo de las decisiones. La combinacin de su aparato formal precisa y su novedosa prueba de auto-derrota pragmtica para la justificacin hace bayesiano epistemologa uno de los acontecimientos ms importantes de la epistemologa en la 20 siglo, y una de las vas ms prometedoras para seguir avanzando en la epistemologa de la 21 siglo. 1. Coherencia deductivo y probabilstico y reglas deductivas y probabilstica de la inferencia 2. Un principio simple de condicionalizacin 3. Argumentos holandeses Libro 4. Teorema de Bayes y Teora Confirmacin bayesiano o Teorema de Bayes y Corolario o Teora Confirmacin bayesiano 5. Epistemologa Social bayesiano 6. Problemas Potenciales

6.1 Objeciones a las leyes de la probabilidad como las Normas de Synchronic Coherencia o 6.2 Objeciones a el simple principio de condicionalizacin como regla de inferencia y otras objeciones a la teora bayesiana Confirmacin 7. Otros principios de la epistemologa bayesiana Bibliografa Herramientas Acadmicas Otros recursos de Internet Entradas relacionadas

1. Coherencia deductivo y probabilstico y reglas deductivas y probabilstica de la inferencia Hay dos maneras en que las leyes de la lgica deductiva se han pensado para proporcionar restricciones racionales sobre las creencias: (1) sincrnicamente, las leyes de la lgica deductiva se pueden utilizar para definir la nocin de consistencia deductiva e inconsistencia. Inconsistencia deductivo as definido determina una especie de incoherencia en la creencia, que yo llamo incoherencia deductivo . (2) Diacrnicamente, las leyes de la lgica deductiva pueden limitar admisibles cambios en las creencias, proporcionando las reglas de inferencia deductiva . Por ejemplo, el modus ponens es una regla de la inferencia deductiva que requiere que uno infiere Q de premisas P y P Q . Bayesianos proponer normas adicionales de coherencia sincrnica - normas de coherencia probabilstica - y normas adicionales de inferencia - reglas de inferencia probabilstica - en ambos casos, para aplicar no creencias, sino grados de creencia (grados de confianza). Para bayesianos, las normas ms importantes de la coherencia probabilstica son las leyes de la probabilidad. Para ms informacin sobre las leyes de la probabilidad, consulte el siguiente artculo complementario: Suplemento sobre leyes de probabilidad Para bayesianos, la regla probabilstica ms importante de la inferencia es dada por un principio de condicionalizacin . 2. Un principio simple de condicionalizacin Si probabilidades condicionales (por ejemplo, P ( S se toman)) como primitiva, la probabilidad condicional de S en T se puede definir de la siguiente manera:

Probabilidad condicional : P ( S / T ) = P ( S y T ) / P ( T ). Por s misma, la definicin de probabilidad condicional es de poca importancia epistemolgica. Adquiere importancia epistemolgica slo en combinacin con un supuesto epistemolgico ms: Simple Principio de condicionalizacin : Si uno empieza con iniciales o antes de probabilidades P i , y se adquiere nuevas pruebas que se puede representar como convertirse en cierta de una sentencia de probatoria E (que se supone indicar la totalidad de uno de nuevas pruebas y tener probabilidad inicial mayor que cero), entonces la racionalidad exige que se transforman sistemticamente uno de probabilidades iniciales para generar finales o posterior probabilidades P f por conditionalizing en E - es decir: Donde S es cualquier declaracin, P f ( S ) = P i ( S / E ). [ 1 ] En trminos epistemolgicos, este principio simple de condicionalizacin requiere que los efectos de las pruebas sobre las titulaciones racionales pueden analizar en dos etapas: la primera es no-inferencial. Es el cambio en la probabilidad de la declaracin evidencia E de P i ( E ), supone que es mayor que cero y menor que uno, a P f ( E) = 1. La segunda es una inferencia probabilstica de conditionalizing en E de probabilidades iniciales (por ejemplo, P i ( S )) a probabilidades finales (por ejemplo, P f ( S) = P i ( S / E )). Problemas con el sencillo principio (como veremos ms adelante), han llevado a muchos bayesianos para calificar el sencillo principio de limitar su alcance. Adems, algunos bayesianos siguen Jeffrey al generalizar el principio simple de aplicar a los casos en los que uno de nueva evidencia es menos cierto (tambin se discute ms adelante). Lo que unifica la epistemologa bayesiana es la conviccin de que conditionalizing (tal vez de una especie generalizada) es racionalmente necesaria en algunos contextos importantes - es decir, que algn tipo de principio condicionalizacin es un importante principio que rige los cambios racionales en grados de creencia. 3. Argumentos holandeses Libro Muchos argumentos se han dado para con respecto a las leyes de la probabilidad como las condiciones de la coherencia en los grados de creencia y de tomar algn principio de condicionalizacin ser una regla de inferencia probabilstica. El distintivo bayesiano mayora se los conoce como argumentos holandeses libro . Argumentos holandeses libro representan la posibilidad de un nuevo tipo de justificacin de los principios epistemolgicos.

Un argumento holandesa libro se basa en algunos supuestos descriptivos o normativos para conectar grados de creencia con la voluntad de apostar - por ejemplo, una persona con grado de creencia de p en la oracin S se supone que est dispuesto a pagar hasta e incluyendo $ p para una unidad apostar en S (es decir, una apuesta que paga $ 1 si S es cierto) y est dispuesto a vender una apuesta como para cualquier precio igual o superior a $ p (uno se supone que es igual de dispuestos a comprar o vender una apuesta tal cuando el precio es exactamente $ p ). [ 2 ] Un libro holands es una combinacin de apuestas que, sobre la base de la lgica deductiva solo, se puede demostrar que implicara una prdida segura. Un libro holands sincrnico es una combinacin libro holands de apuestas que uno acepte, todo al mismo tiempo.Un libro holands diacrnico es una combinacin libro holands de apuestas que uno se sentir motivado a entrar en momentos diferentes. Ramsey y de Finetti empleadas primera sincrnicos Argumentos holandeses Reserve en apoyo de las leyes de la probabilidad como las normas de coherencia sincrnica de grados de creencia. El primer argumento diacrnico libro holands en apoyo de un principio de condicionalizacin fue reportado por Teller, quien acredita David Lewis. El argumento de Lewis / Teller depende de un supuesto ms descriptivo o normativo acerca de las probabilidades condicionales por de Finetti: un agente con probabilidad condicional P ( S / T ) = p Se supone que estar dispuesto a pagar cualquier precio hasta e incluyendo $ p de una unidad de apuesta en S condicionada a T .(Una unidad de apuesta en S condicionada a T es uno que se suspendi, con el precio de compra devuelto al comprador, si T no es cierto. Si T es cierto, la apuesta no se cancela y la apuesta paga $ 1 si S es tambin es cierto.) Segn esta interpretacin de las probabilidades condicionales, Lewis, segn ha informado Teller, fue capaz de mostrar cmo construir un libro holands diacrnico contra cualquier persona que, en el aprendizaje slo eso T , previsiblemente cambiara su / su grado de creencia en Sa P f ( S )> P i ( S / T ), y la forma de construir un libro holands diacrnico contra cualquier persona que, en el aprendizaje slo eso T , previsiblemente cambiara su / su grado de creencia en S a P f ( S ) < P i ( S / T ) . Para las ilustraciones de la estrategia de la Finetti Ramsey / y de los argumentos de Lewis / Teller, consulte el siguiente artculo complementario: Suplemento sobre Argumentos holandeses Libro Ha habido mucha discusin sobre qu es exactamente lo que los argumentos holandeses libro se supone que mostrar. En la interpretacin literal-mente , su importancia es que muestran que aquellos cuyos grados de creencia de violar las leyes de la probabilidad o aquellos cuyas inferencias probabilsticas previsiblemente violar un principio de condicionalizacin son susceptibles de entrar en las apuestas en las que est seguro de perder. Hay muy poco que decir acerca de la interpretacin literal-mente, porque no hay

ninguna base para afirmar que la racionalidad exige que uno est dispuesto a apostar de acuerdo con los supuestos de comportamiento descritos anteriormente. Un agente podra simplemente negarse a aceptar libro combinaciones holandesas de apuestas. Una de las principales motivaciones para el nuevo enfoque de Jeffrey a los fundamentos de la teora de la decisin en la lgica de la Decisin fue su insatisfaccin con la identificacin de la probabilidad subjetiva con relaciones de apuestas. Por ejemplo, no importa lo que uno es el grado de creencia en la idea de que toda la vida humana ser destruida dentro de los prximos diez aos, sera no ser racional que ofrecer para comprar una apuesta en su verdad. Williamson se extiende Argumento libro holands de deFinetti para una restriccin de aditividad finita en grados racionales de la fe para producir un argumento para una restriccin de aditividad numerable de grados de creencia, pero el argumento se interpreta mejor como una reductio de la interpretacin literal-mente de los argumentos holandeses Libro que como un argumento a favor de la racionalidad de una restriccin de aditividad numerable. La respuesta racional a ofrece a apostar por la idea de que toda la vida ser destruido en los prximos diez aos, ms o apostar a un solo resultado posible en un conjunto infinito numerable de resultados equiprobables posibles es simplemente no. Una interpretacin ms plausible de los argumentos holandeses libro es que se han de entender hipotticamente, como un sntoma de lo que se denomina pragmtica autoderrota . Segn esta interpretacin, Argumentos holandeses libro son un tipo de heurstica para determinar cuando una de grados de creencia tienen el potencial de ser pragmtica autodestructivo . El problema no es que quien viole las restricciones bayesianas es probable que entre en una combinacin de apuestas que constituyen un libro holands, pero que, en cualquier forma razonable de traducir ttulos de uno de la creencia en la accin, hay una posibilidad de que uno de los grados de creencia de motivar a la persona a actuar en formas que hacen que las cosas peor de lo que podra haber sido, cuando, como una cuestin de lgica solo, se puede determinar que las medidas alternativas se han hecho las cosas mejor (en las propias evaluaciones de los mejor y peor). Otra forma de entender el problema de la susceptibilidad a un libro holands se debe a Ramsey: Alguien que es susceptible a un libro holands evala apuestas idnticas de manera diferente en funcin de cmo se describen. Dicho de esta manera hace que la susceptibilidad al ruido libros en lengua neerlandesa irracional. Pero esta norma de racionalidad hara irracional no reconocer todas las consecuencias lgicas de lo que uno cree. Esta es la suposicin de omnisciencia lgica (discutido ms adelante). Si tiene xito, Argumentos holandeses libro reduciran la justificacin de los principios de la epistemologa bayesiana a dos elementos: (1) una descripcin de la relacin adecuada entre los grados de creencia y de eleccin, y (2) las leyes de la lgica deductiva. Porque

parece que la verdad sobre la relacin apropiada entre los grados de creencia y la eleccin es independiente de la epistemologa, Argumentos holandeses libro tienen el potencial de justificar los principios de la epistemologa bayesiana de una manera que no requiere de otros recursos epistemolgicos que las leyes de la lgica deductiva. Por esta razn, tiene sentido pensar en libro Argumentos holandesas como indirectos, argumentos pragmticos de acuerdo con los principios de la epistemologa bayesiana lo mismo estatus epistemolgico como las leyes de la lgica deductiva. Argumentos holandeses libro son una contribucin verdaderamente distintivo hecha por bayesianos con la metodologa de la epistemologa. Tambin hay que mencionar que algunos bayesianos han defendido sus principios ms directamente, con argumentos no pragmticas. Adems de informar Argumento libro holands de Lewis, Teller ofrece una defensa no pragmtica de condicionalizacin. Ha habido muchas defensas no pragmticas propuestas de las leyes de probabilidad (por ejemplo, van Fraassen; Shimony). El ms atractivo se debe a Joyce. Todas estas defensas, ya sea pragmtica y no pragmtica, producen un rompecabezas para la epistemologa bayesiana: Los principios de la epistemologa bayesiana se proponen generalmente como principios de induccin razonamiento. Pero si los principios de la epistemologa bayesiana dependen en ltima instancia, para su justificacin nicamente en las leyes de la lgica deductiva, qu razn hay para pensar que no tienen ninguna inductiva contenido? Es decir, qu razn hay para creer que lo hacen ms que extender las leyes de la lgica deductiva de las creencias de los grados de creencia? Cabe mencionar, sin embargo, que aunque la epistemologa bayesiana slo extendi las leyes de la lgica deductiva de grados de creencia, la nica que representara un avance muy importante en la epistemologa. 4. Teorema de Bayes y Teora Confirmacin bayesiano En esta seccin se revisan algunos de los resultados ms importantes en el anlisis bayesiano de la prctica cientfica - Teora Confirmacin bayesiano . Se supone que todas las declaraciones que han de evaluarse tienen probabilidad a priori mayor que cero y menor que uno. 4.1 Teorema de Bayes y Corolario Teorema de Bayes es una consecuencia directa de los axiomas de probabilidad y la definicin de probabilidad condicionada: Teorema de Bayes : P ( S / T ) = P ( T / S ) x P ( S ) / P ( T ) [en donde P ( t ) se supone que es mayor que cero]

La importancia epistemolgica del teorema de Bayes es que proporciona un corolario directo con el principio simple de condicionalizacin. Cuando la probabilidad final de una hiptesis H se genera por conditionalizing en la evidencia E , el teorema de Bayes proporciona una frmula para la probabilidad final de H en trminos de la previa o inicial probabilidad de H en E ( P i ( E / H )) y las probabilidades previas o iniciales de H y E : Corolario del principio simple de condicionalizacin : P f ( H ) = P i ( H / E ) = P i ( E / H ) P i ( H ) / P i ( E ). Debido a la influencia de bayesianismo, la probabilidad es ahora un trmino tcnico de arte en la teora de la confirmacin. Tal como se utiliza en este sentido tcnico, probabilidades pueden ser muy tiles. A menudo, cuando la probabilidad condicional de H en E est en duda, la probabilidad de H en E se puede calcular a partir de los supuestos tericos de H . 4.2 Teora Bayesiana Confirmacin A. La confirmacin y desconfirmacin. En teora Confirmacin bayesiano, se dice que la evidencia confirma (o confirmara) hiptesis H (al menos hasta cierto punto) en caso de que la probabilidad previa de H condicionada a E es mayor que la probabilidad incondicional antes de H : P i ( H / E )> P i ( H ). E desconfirma (o que refutar) H si la probabilidad previa de H condicionada a E es menor que la probabilidad incondicional antes de H . Se trata de una concepcin cualitativa de confirmacin. No hay un acuerdo general en la literatura en una medida cuantitativa de grado de confirmacin o el grado de apoyo probatorio. Earman (cap. 5) y Fitelson tanto proporcionan una buena visin general de las diversas propuestas. Podra pensarse que el grado en que apoya la evidencia E (o apoyara) H hiptesis podra ser definida como P i ( H / E ) - P i ( H ). Un problema potencial con esta propuesta es que tiene la consecuencia de que no hay evidencia puede proporcionar tanto apoyo probatorio a una hiptesis de que es muy probable antecedente, porque como la probabilidad de que H se aproxima a uno, la diferencia llega a cero. Eells y Fitelson han argumentado que esta consecuencia al parecer contrario a la intuicin puede ser evitado por distinguir la cuestin histrica de la cantidad de un elemento de prueba E en realidad contribuy a la confirmacin de la H (que, por supuesto, tendra que ser pequea si H fueron antecedente muy probable ) de la cuestin del grado de apoyo evidencial E prev H , cuya respuesta, proponen, es relativa a la informacin de fondo. As que incluso si H es muy probable en el momento que la evidencia E es adquirida, podemos preguntarnos cunto apoyo evidencial E establecera H si no tuviramos otro tipo de evidencia H .Eells y Fitelson tambin han proporcionado un marco til para la evaluacin de las diferentes propuestas en la literatura, un marco en el que la mayora de ellos se encuentran a querer.

B. La confirmacin y desconfirmacin de vinculacin. Cuando una hiptesis H implica lgicamente la evidencia E , E confirma H . Esto se deduce del hecho de que para determinar la verdad de E es para descartar la posibilidad supone que tienen probabilidad a priori no-cero que es incompatible con H - la posibilidad de que ~ E .Un corolario es que, donde H implica E , ~ E sera desconfirmar H , mediante la reduccin de su probabilidad a cero. El modelo ms influyente de la explicacin en la ciencia es el modelo hipotticodeductivo (por ejemplo, Hempel). Por lo tanto, una de las fuentes ms importantes de apoyo a la teora de confirmacin bayesiano es que puede explicar el papel de la explicacin hipottico-deductivo de confirmacin. C. Confirmacin de los equivalentes lgicos. Si dos hiptesis H1 y H2 son lgicamente equivalentes, entonces la evidencia E confirmar a ambos por igual. Esto se deduce del hecho de que las declaraciones lgicamente equivalentes siempre se les asigna la misma probabilidad. . D. El efecto de evidencia confirmatoria sorprendente o diversa Desde el corolario anterior, se deduce que si E confirma (o desconfirma) H depende de si E es ms probable (o menos probable) condicionada a H de lo que es incondicionalmente - es decir, de si: (B1) P ( E / H ) / P ( E )> 1. Una forma intuitiva de entendimiento (b1) es decir que se afirma que E se espera ms (o menos sorprendente) si se sabe que H fuera cierto. As que si E es sorprendente, pero no sera sorprendente si supiramos H fuera cierto, entonces E confirmar significativamente H . Por lo tanto, bayesianos explicar la tendencia de la evidencia sorprendente para confirmar las hiptesis sobre las que se espera que la evidencia. Del mismo modo, ya que es razonable pensar que la evidencia E 1 hace otra prueba de la misma clase mucho ms probable, despus de E 1 se ha determinado para ser verdad, otra prueba de la misma clase E 2 por lo general no confirma la hiptesis H tanto como otra evidencia diversa E 3 , incluso si H es igualmente probable tanto en E2 y E 3 . La explicacin es que cuando E 1 hace E 2 mucho ms probable que la E 3 ( P i ( E 2 / E 1 ) >> P i ( E 3 / E 1 ), hay menos potencial para el descubrimiento de que E 2 es verdadera para aumentar la probabilidad de H que hay para el descubrimiento de que E 3 es cierto para hacerlo. E. relaciones de confirmacin y la probabilidad relativa. A menudo es importante para poder comparar el efecto de la evidencia E en dos hiptesis rivales, H j y H k , sin tener tambin en cuenta su efecto sobre otras hiptesis que pueden no ser tan fciles de formular

o para comparar con H j y H k . Desde la primera corolario anteriormente, la relacin de las probabilidades finales de H J y H k estara dado por: Ratio Frmula : P f ( H j ) / P f ( H k ) = [ P i ( E / H j ) P i ( H j )] / [ P i ( E / H k ) P i ( H k )] Si las probabilidades de H j con respecto a H k se definen como la relacin de sus probabilidades, a continuacin, a partir de la Frmula Relacin de ello se desprende que, en un caso en el que el cambio en los grados de los resultados de creencias de conditionalizing en E , las probabilidades finales ( P f ( H j ) / P f ( H k resultado)) de multiplicar las probabilidades iniciales ( P i ( H j ) / P i ( H k )) por el cociente de probabilidad ( P i ( E / H j ) / P i ( E / H k )). As, en las comparaciones por pares de las probabilidades de las hiptesis, la razn de verosimilitud es el determinante fundamental de los efectos de las pruebas sobre las probabilidades. F. Subjetivo y Objetivo bayesianismo. Existen restricciones sobre las probabilidades previas sean las leyes de probabilidad? Considere una situacin en la que usted es sacar una bola de una urna llena de bolas de color rojo y negro. Supongamos que usted no tiene ninguna otra informacin acerca de la urna. Cul es la probabilidad a priori (antes de extraer una bola) que, dado que se extrae una bola de la urna, que la bola extrada sea negro? La cuestin divide bayesianos en dos campos: (A) Subjetivo bayesianos hacen hincapi en la relativa falta de limitaciones racionales en probabilidades a priori. En el ejemplo de urna, que permitiran que cualquier probabilidad a priori entre 0 y 1 puede ser racional (aunque algunos bayesianos subjetiva (por ejemplo, Jeffrey) sera descartar los dos valores extremos, 0 y 1). Los bayesianos subjetivas ms extremas (por ejemplo, de Finetti) sostienen que la restriccin slo racional de probabilidades a priori es la coherencia probabilstica. Otros (por ejemplo, Jeffrey) se clasifican como subjetivistas a pesar de que permiten cierto nmero relativamente pequeo de restricciones adicionales sobre racionales probabilidades previas. Desde subjetivistas pueden estar en desacuerdo acerca de las restricciones particulares, lo que los une es que sus limitaciones descartan muy poco. Para bayesianos subjetivas, nuestras asignaciones de probabilidad a priori reales son en gran parte el resultado de factores no racionales, por ejemplo, nuestra propia, la eleccin o de la evolucin o la socializacin libre sin restricciones. (B) Objetivo bayesianos (por ejemplo, Jaynes y Rosenkrantz) hacen hincapi en la medida en que antes de probabilidades se ven limitados racionalmente. En el ejemplo anterior, celebraban que la racionalidad requiere asignar una probabilidad a priori de 1/2 a sacar una bola negro de la urna. Ellos argumentan que cualquier otra probabilidad fallara la prueba

siguiente: Dado que usted no tiene ninguna informacin en absoluto sobre lo que las bolas son de color rojo y que las bolas son de color negro, se debe elegir antes de probabilidades de que no varan con el cambio de etiqueta ("rojo" o " negro "). Sin embargo, la asignacin de probabilidad antes de que slo es invariante de esta manera es la asignacin de probabilidad a priori de la media para cada una de las dos posibilidades (es decir, que la bola extrada es de color negro o que es de color rojo). En el lmite, un bayesiano Objetivo sostendra que las limitaciones racionales determinan nicamente antes de probabilidades en cada circunstancia. Esto hara que las probabilidades a priori probabilidades lgicas puramente determinable a priori . Ninguno de los que se identifican a s mismos como Objetivo bayesianos tiene esta forma extrema de la vista. Tampoco estn de acuerdo en precisamente lo que las limitaciones racionales sobre grados de creencia son. Por ejemplo, Williamson no acepta condicionalizacin de ninguna forma como una limitacin racional de grados de creencia. Lo que une a todos los bayesianos Objetivo es su conviccin de que, en muchas circunstancias, consideraciones de simetra determinan nicamente las probabilidades previas pertinentes y que, incluso cuando no se determinan nicamente las probabilidades previas pertinentes, que a menudo lo restringen el rango de probabilidades previas racionalmente admisibles, que se garantice la convergencia en las probabilidades posteriores pertinentes. Jaynes identifica cuatro principios generales que limitan probabilidades previas, invariancia grupo, maximium entropa, la marginacin y la teora de la codificacin, pero no tiene en cuenta la lista exhaustiva. l espera principios adicionales que se aadirn en el futuro. Sin embargo, no bayesiano Objetivo afirma que hay principios que determinan nicamente antes de probabilidades racionales en todos los casos. Mediante la introduccin de restricciones de simetra de probabilidades a priori, la bayesianos Objetivo heredan las dificultades del principio clsico de la indiferencia, llamado as por Keynes, pero por lo general atribuida a Laplace. El ejemplo simple de la urna ilustra cmo las consideraciones invariancia se pueden utilizar para dar contenido al principio de la indiferencia. All, el objetivista es capaz de determinar nicamente las probabilidades previas de la exigencia de que las probabilidades previas racionales deben ser invariantes bajo el cambio de las etiquetas utilizadas para clasificar las bolas en la urna. Sin embargo, es generalmente aceptado por ambas objetivistas y subjetivistas que la ignorancia por s sola no puede ser la base para la asignacin de probabilidades a priori. La razn es que, en cualquier caso particular debe haber alguna informacin para seleccionar los parmetros o que las transformaciones son las que, entre los cuales uno es ser indiferente. Sin esa informacin, las consideraciones indiferencia conducen a paradojas. Objetivo bayesianos han sido muy creativos en la bsqueda de maneras de

resolver muchas de las paradojas (por ejemplo, la "solucin a la Bertrand Pardox, la solucin de Jaynes a Paradox aguja de Buffon, o solucin de Mikkelson que van Mises JeffreysParadox). Pero siempre hay ms paradojas. Charles, Hcker, Lacker, Le Diberder, y T'Jampens proporcionan un ejemplo real de la fsica donde los rendimientos mximos de entropa resultados contradictorios dependiendo de la parametrizacin y donde un enfoque frequentist parece ser superior a cualquier enfoque bayesiano Objetivo que emplea cualquier forma de condicionalizacin. G. El efecto diferencial tpico de pruebas positivas y pruebas negativas. Hempel primera seal que normalmente esperamos que la hiptesis de que todos los cuervos son de color negro para ser confirmado en cierta medida por la observacin de un cuervo negro, pero no por la observacin de un no -negro, no cuervo. Deje que H sea la hiptesis de que todos los cuervos son de color negro. Que E 1 describe la observacin de una, no cuervo no negro. Que E 2 describe la observacin de un cuervo negro. Teora Confirmacin bayesiano realidad sostiene que tanto E 1 y E 2 puede proporcionar una confirmacin de H . Recordemos que E 1 es compatible H en caso de P i ( E 1 / H ) / P i ( E 1 )> 1. Es plausible pensar que esta proporcin es ligeramente mayor que uno. Por otro lado, E 2 parece mucho mayor para proporcionar la confirmacin de H , porque, en este ejemplo, sera de esperar que P i ( E 2 / H ) / P i ( E 2 ) >> P i ( E 1 / H ) / P i ( E 1 ). Estos son slo una muestra de los resultados que han prestado apoyo para la teora bayesiana de confirmacin como una teora de la inferencia racional para la ciencia.Para ms ejemplos, vea Howson y Urbach. Tambin debe mencionarse que una rama importante de las estadsticas, estadsticas Bayesiano se basa en los principios de la epistemologa Bayesiano. 5. Epistemologa Social bayesiano Una de las novedades importantes de la epistemologa bayesiana ha sido la exploracin de la dimensin social de la investigacin. El ejemplo obvio es la investigacin cientfica, ya que es la comunidad de los cientficos, ms que cualquier cientfico individual, que determinan lo que es o no es aceptado en la disciplina. Adems, los cientficos suelen trabajar en grupos de investigacin, e incluso los que trabajan solos se basan en los informes de otros cientficos para ser capaz de disear y llevar a cabo su propio trabajo. Otros ejemplos importantes de la dimensin social del conocimiento incluyen el uso de jurados para hacer determinaciones de hecho en el sistema legal y la descentralizacin de los conocimientos a travs de Internet. Hay dos maneras de que la epistemologa bayesiano se puede aplicar a la investigacin social:

(1) bayesiano epistemologa del testimonio (entendida en general, para incluir no slo el testimonio personal, pero todas las fuentes de los medios de informacin).Goldman ha desarrollado una epistemologa bayesiana del testimonio y lo aplic a las entidades sociales como la ciencia y el sistema legal. En tal enfoque, una cuestin crucial es cmo evaluar la fiabilidad de los informes que uno recibe. El enfoque de Goldman es centrarse en el diseo institucional para motivar la produccin de informes confiables. Bovens y Hartmann vez tratan de modelar cmo, cuando hay informes de varias fuentes, un agente bayesiano puede utilizar el razonamiento probabilstico para juzgar la fiabilidad de los informes, y por lo tanto, la cantidad de crdito a colocar en ellos. La idea de que en la evaluacin de la probabilidad de que un informe que estamos evaluando implcitamente la fiabilidad del reportero se desarrolla por Barnes como una posible explicacin de la prediccin / alojamiento asimetra, se discute en la siguiente seccin. (2) bayesianismoAggregate. Si el conocimiento cientfico y las deliberaciones del jurado producir un producto de grupo, es natural considerar si el conocimiento del grupo se puede representar en forma agregada. En trminos bayesianos, la pregunta es si las asignaciones probabililty los individuos pueden ser tilmente agregan en una sola asignacin probabilidad de que refleja el conocimiento del grupo. Aunque Seidenfeld, kadane, y Schervish han demostrado que en general no hay manera de definir un Bayesiano espera maximizador de utilidad agregada para representar las preferencias de Pareto de un grupo de dos o ms bayesianos maximizadores de utilidad individuales esperados, no hay resultado imposibilidad opone a la agregacin de los asignaciones probabililty individuales en una asignacin de probabilidad grupo. Sin embargo, no hay acuerdo general en regla para hacerlo. Si un grupo de individuos bayesianos Todo haba comenzado de la misma probabilidades iniciales, simplemente compartiendo su testimonio los llevara a todos a las mismas probabilidades finales. Puede parecer desafortunado que la unanimidad en la ciencia y otras actividades sociales no se puede lograr tan fcilmente, pero Kitcher ha argumentado que esto es un error, porque la diversidad cognitiva desempea un papel importante en el progreso cientfico. La fecundidad de la epistemologa social bayesiano puede en ltima instancia, depende de si o no las idealizaciones de la teora bayesiana son demasiado realistas. Por ejemplo, si uno de los efectos importantes de las deliberaciones del jurado es que tienden a proporcionar una manera para que el grupo de corregir la irracionalidad de los miembros individuales, entonces es probable que sea capaz de explicar que las caractersticas de ningn modelo de los miembros del jurado como bayesianos ideales el sistema de jurados. 6. Problemas Potenciales

En esta seccin se examinan algunos de los ms importantes problemas potenciales para la teora bayesiana Confirmacin y la epistemologa bayesiana general. No se hace ningn intento de evaluar su gravedad aqu, aunque no hay un acuerdo general sobre la solucin bayesiana a ninguno de ellos. 6.1 Objeciones a las leyes de la probabilidad como las Normas de Synchronic Coherencia A. El supuesto de la omnisciencia lgica. La suposicin de que los grados de creencia satisfacen las leyes de la probabilidad implica la omnisciencia de la lgica deductiva, porque las leyes de probabilidad requiere que todas las verdades lgicas deductivas tienen probabilidad uno, todas las inconsistencias deductivos tienen probabilidad cero, y la probabilidad de cualquier conjunto de sentencias no sea mayor que cualquiera de sus consecuencias deductivas. Esto parece ser un estndar poco realista para los seres humanos. Piratera y Garber han hecho propuestas para relajar el supuesto de la omnisciencia lgica. Debido a relajar este supuesto podra bloquear la derivacin de casi todos los resultados importantes de la epistemologa bayesiana, la mayora de los bayesianos mantienen la hiptesis de la omnisciencia lgica y lo tratan como un ideal al que los seres humanos slo son ms o menos se puede aproximar. B. El estatuto epistemolgico especial de las leyes de la lgica clsica. Aunque la hiptesis de la omnisciencia lgica no es demasiado de una idealizacin de proporcionar un modelo til para el razonamiento humano, tiene otra consecuencia potencialmente preocupantes. Compromete a la epistemologa bayesiana para algn tipo de a priori / a posteriori distincin, porque no puede haber cuenta bayesiano de cmo la evidencia emprica podra hacer racional para adoptar una teora con una lgica no clsica. En este sentido, la epistemologa bayesiana se traslada a la presuncin de la epistemologa tradicional que las leyes de la lgica son inmunes a revisin sobre la base de la evidencia emprica. Est abierto a la bayesiano para tratar de minimizar la importancia de esta consecuencia, mediante la articulacin de un a priori / a posteriori distincin que pretende ser pragmtica ms que metafsico (por ejemplo, la distincin analtico / sinttico de Carnap). Sin embargo, esta cuenta debe abordar reto integral conocida de Quine a la distincin analticosinttico. 6.2 Objeciones a el simple principio de condicionalizacin como regla de inferencia y otras objeciones a la teora bayesiana Confirmacin

. A. El problema de las pruebas incierto el simple principio de condicionalizacin requiere que la adquisicin de las pruebas sea representable como cambiar el ttulo de una de las creencias en un comunicado E a uno - es decir, a la certeza. Pero muchos filsofos se oponen a la asignacin de probabilidad de que una de las declaraciones que los contingentes, incluso una declaracin testimonial, ya que, por ejemplo, es bien sabido que los cientficos dan a veces la evidencia previamente aceptada. Jeffrey ha propuesto una generalizacin del principio de condicionalizacin que los rendimientos de ese principio como un caso especial. La idea de Jeffrey es que lo que es crucial acerca de la observacin no es que produce certeza, pero que genera un cambio no-inferencial en la probabilidad de una declaracin probatoria E y su negacin ~ E (se supone que el lugar geomtrico de todos los no-inferencial los cambios en la probabilidad) de probabilidades iniciales entre cero y uno a P f ( E ) y Pf (~ E ) = [1 - P f ( E )]. A continuacin, en la cuenta de Jeffrey, despus de la observacin, el grado racional de creencia para colocar en una hiptesis H estara dada por el siguiente principio: Principio de Jeffrey condicionalizacin : P f ( H ) = P i ( H / E ) P f ( E ) + P i ( H / ~ E ) P f (~ E ) [en donde E y H son tanto supone que tienen antes de probabilidades entre cero y uno] Contando a favor del principio de Jeffrey es su elegancia terica. Contando en su contra es el problema prctico que requiere que uno sea capaz de especificar completamente los efectos no-inferencial directos de una observacin, algo que es poco probable que alguien haya hecho. Skyrms ha dado una defensa holandesa libro. B. El problema de las pruebas de edad. En una cuenta bayesiano, el efecto de la evidencia de correo para confirmar (o disconfirming) una hiptesis es nicamente una funcin del aumento de la probabilidad de que se acumula a E cuando se determina primero para ser verdad. Esto plantea la siguiente rompecabezas para Teora Confirmacin Bayesiano discutido ampliamente por Glymour: Supongamos que E es una declaracin probatoria que se ha sabido por algn tiempo - es decir, que esevidencia de edad , y supongamos que H es una teora cientfica que ha estado bajo consideracin durante algn tiempo. Un da se descubre que H implica E . En la prctica cientfica, el descubrimiento de que H implicaba E normalmente se tomara para proporcionar cierto grado de apoyo de confirmacin de H . Pero la teora bayesiana Confirmacin parece incapaz de explicar cmo un probatorios anteriormente conocida declaracin E podra proporcionar cualquier nuevo soporte para H. Para condicionalizacin a entrar en juego, tiene que haber un cambio en la probabilidad de que la declaracin de la evidencia E . Donde E es la evidencia de edad, no hay ningn cambio en su probabilidad. Algunos bayesianos que han tratado de resolver este problema (por ejemplo, Garber) han tratado normalmente para debilitar la

suposicin de omnisciencia lgica para permitir la posibilidad de descubrir las relaciones lgicas (por ejemplo, que H y supuestos auxiliares adecuados implican E ).Como se mencion anteriormente, la relajacin de la suposicin de omnisciencia lgica amenaza para bloquear la derivacin de casi la totalidad de los resultados importantes de la epistemologa Bayesiano. Otros bayesianos (por ejemplo, Lange) emplean el formalismo Bayesiano como una herramienta en la reconstruccin racional de la prueba en apoyo para una hiptesis cientfica, donde es irrelevante para la reconstruccin racional si se descubri la evidencia antes o despus de la teora se formul inicialmente. Joyce y Christensen estn de acuerdo en que el descubrimiento de nuevas relaciones lgicas entre las pruebas previamente aceptada y una teora no puede aumentar la probabilidad de la teora. Sin embargo, sugieren que el uso de P i ( H / E ) - P i ( H / -E ) como una medida de apoyo puede al menos explicar como prueba de que tiene una probabilidad an se poda apoyar una teora. Eells y Fitelson han criticado esta propuesta y sostuvo que el problema es ms abordado por dos medidas distintivas, la medida histrica del grado en el que un elemento de prueba E realidad confirma una hiptesis H y la medida ahistrico de la cantidad de un elemento de prueba E apoyara la hiptesis H , en dado los antecedentes B . La segunda medida, nos permite hacer la pregunta ahistrica de la cantidad de E apoyara Hsi no tuviramos otro tipo de evidencia H . C. El problema de las probabilidades condicionales rgidos. Cuando uno conditionalizes, uno aplica las probabilidades condicionales iniciales para determinar las probabilidades incondicionales finales. En todo momento, las probabilidades condicionales en s no cambia, sino que siguen siendo rgidas. Ejemplos del problema de la vieja Evidencia pero son uno de una variedad de casos en los que parece que puede ser racional para cambiar uno de probabilidades condicionales iniciales. Por lo tanto, muchos bayesianos rechazar el principio simple de condicionalizacin a favor de un principio cualificado, limitarse a situaciones en las que uno no cambia las probabilidades condicionales iniciales de uno. No hay ninguna cuenta generalmente aceptada de cuando es racional para mantener las probabilidades condicionales iniciales rgidos y cuando no lo es. . D. El problema de la prediccin vs alojamiento Relacionado con el problema de la vieja Evidencia es el siguiente problema potencial: Consideremos dos escenarios diferentes. En la primera, la teora H fue desarrollado, en parte, a acomodar (es decir, dar a entender) algunos conocidos previamente evidencia E. En la segunda, la teora H fue desarrollado en un momento en que E no se conoce. Fue porque E se deriv como una prediccin de H que se realiz un ensayo y E fue encontrado para ser verdad. Parece que E de ser cierto sera proporcionar un mayor grado de confirmacin para H si la verdad de E haba sido predicho por H que si H haba sido desarrollado para acomodar la verdad de E . No existe un acuerdo general entre los bayesianos acerca de cmo resolver este

problema. Algunos (por ejemplo, Horwich) argumentan que bayesianismo implica que no existe una diferencia importante entre la prediccin y el alojamiento, y tratar de defender esa implicacin. Otros (por ejemplo, Maher) sostienen que hay una manera de entender bayesianismo fin de explicar por qu hay una diferencia importante entre la prediccin y el alojamiento. E. El problema de las nuevas teoras. Supongamos que existe una teora H 1 que es generalmente considerada como altamente confirmado por la evidencia disponible E . Es posible que simplemente la introduccin de una teora alternativa H 2 puede conducir a una erosin de la H 1 apoyo 's. Es plausible pensar que la introduccin de la hiptesis heliocntrica de Coprnico tena ese efecto en la Tierra en el centro de Ptolomeo previamente indiscutible astronoma. Este tipo de cambio no puede ser explicado por condicionalizacin. Es por esta razn por la que muchos bayesianos prefieren centrarse en los ratios de probabilidad de hiptesis (vase la Frmula Relacin de arriba), en lugar de su probabilidad absoluta; pero est claro que la introduccin de una nueva teora tambin podra alterar la relacin de probabilidad de que dos hiptesis - por ejemplo, si supusiera una de ellas como un caso especial. F. El problema de los priores. Existen restricciones sobre las probabilidades previas sean las leyes de probabilidad? Esta es la cuestin que divide lo subjetivo de lo objetivo bayesianos, como se mencion anteriormente. Considere la posibilidad de "nuevo enigma de la induccin" de Goodman: En el pasado, todas las esmeraldas observadas han sido verde. Esas observaciones proporcionan ms apoyo a la generalizacin de que todas las esmeraldas son verdes que lo hacen para la generalizacin de que todas las esmeraldas son grue (verde si se observa hasta ahora, el azul si observa ms adelante), o es lo que ofrecen ms apoyo a la prediccin de que la prxima esmeralda observado ser verde que para la prediccin de que la prxima esmeralda observado ser grue (es decir, azul)? Casi todo el mundo est de acuerdo en que sera irracional tener probabilidades previas que eran indiferentes entre verde y grue, y las predicciones hechas tanto de verdor no ms probables que las predicciones de grueness. Pero no se acuerda ningn general en la explicacin de esta limitacin. El problema de los priores advierte un problema importante entre los bayesianos objetivos y subjetivos. Si las limitaciones de la inferencia racional son tan dbiles como para permitir que cualquiera o casi ningn probabilidades previas probabilsticamente coherentes, entonces no habra nada que hacer inferencias en las ciencias ms racionales que las inferencias en la astrologa o la frenologa o en el razonamiento de la conspiracin de un esquizofrnico paranoide , porque todos ellos pueden reconstruirse como inferencias de probabilidades previas probabilsticamente coherentes. Algunos bayesianos subjetivo creen

que su posicin no es objetable subjetivo, porque de los resultados (por ejemplo, Doob o Gaifman y Snir) demuestra que incluso los sujetos que comienzan con muy diferentes probabilidades previas tienden a converger en sus probabilidades finales, teniendo en cuenta una larga serie adecuada de compartir observaciones. Estos resultados de convergencia no son totalmente tranquilizadora, sin embargo, debido a que slo se aplican a los agentes que ya tienen un acuerdo significativo en sus antecedentes y no aseguran la convergencia en una cantidad de tiempo razonable. Adems, por lo general slo garantizan la convergencia en la probabilidad de predicciones, no en la probabilidad de hiptesis tericas. Por ejemplo, Carnap favoreci probabilidades previas que nunca elevara por encima de cero la probabilidad de una generalizacin ms de un nmero potencialmente infinito de casos (por ejemplo, que todos los cuervos son de color negro), no importa cuntas observaciones de casos positivos (por ejemplo, cuervos negros) uno podra hacer sin encontrar casos negativos (es decir, los cuervos no negros). Adems, los resultados dependen de convergencia en el supuesto de que los nicos cambios en las probabilidades de que se producen son aquellos que son los resultados no inferenciales de observacin en los estados probatorios y los que resultan de condicionalizacin sobre dichos estados probatorios. Pero casi todos los subjetivistas permiten que a veces puede ser racional para cambiar uno de asignaciones de probabilidad a priori. Porque no hay un acuerdo general sobre la solucin al problema de los Priores, es una cuestin abierta si la Teora de confirmacin bayesiano tiene contenido inductivo, o si simplemente traduce el marco de creencia racional proporcionada por la lgica deductiva en un marco correspondiente para grados racionales de creencia. 7. Otros principios de la epistemologa bayesiana Se han propuesto otros principios de la epistemologa bayesiana, pero ninguno ha ganado en cualquier lugar cerca de una mayora de apoyo entre bayesianos. Las propuestas ms importantes son simplemente mencionados aqu. Est ms all del alcance de esta entrada a discutirlas en detalle. A. Otros principios de coherencia sincrnica. Son las leyes de probabilidad las nicas normas de coherencia sincrnica de grados de creencia? Van Fraassen ha propuesto un principio adicional (ReflectionReflection o especial), que ahora se considera como un caso especial de un principio ms general (Reflexin General). [ 3 ] . B. Otras reglas de inferencia probabilstica parece que hay al menos dos conceptos diferentes de la probabilidad: la probabilidad de que est involucrado en grados de creencia (probabilidad epistmica o subjetiva) y la probabilidad de que est involucrado en los eventos aleatorios, como el lanzamiento de de una moneda (azar). De Finetti pensaba que

esto era un error y que slo haba un tipo de probabilidad, probabilidad subjetiva. Para bayesianos que creen en los dos tipos de probabilidades, una pregunta importante es: Cul es (o debera ser) la relacin entre ellos? La respuesta se puede encontrar en las diferentes propuestas de los principios de inferencia directa en la literatura. Por lo general, se proponen principios de inferencia directa como principios para inferir probabilidades subjetivas o epistmica de creencias acerca de azar objetivo (por ejemplo, Pollock). Lewis invierte el sentido de la inferencia, y propone para inferir creencias acerca azar objetivo de probabilidades subjetivas o epistmico, a travs de su (reformulada) Principio Principal. [ 4 ] Strevens sostiene que es el principio director de Lewis que da bayesianismo su contenido inductivo. C. Principios de aceptacin racional. Cul es la relacin entre las creencias y los grados de creencia? Jeffrey se propone renunciar a la nocin de creencia (al menos para los enunciados empricos) y conformarse con slo grados de creencia. Otros autores (por ejemplo, Levi, Maher, Kaplan) proponen principios de aceptacin racional como parte de las cuentas de cundo es racional aceptar una afirmacin como verdadera, no simplemente lo consideran como probable. Bibliografa Barnes, Eric Christian, "predictivismo para pluralistas", Diario britnico de la Filosofa de la Ciencia 56 (2005): 421-450. Bayes, Thomas, "Un ensayo en la solucin de un problema en la Doctrina de Chances", PhilosophicalTransactions de la Royal Society de Londres (1764) 53: 37-418, reimpreso en ES Pearson y MG Kendall, eds, Estudios de la Historia. de Estadstica y probabilidad (London: Charles Griffin, 1970). Bovens, Luc y Stephan Hartmann, bayesianoEpistemologa (Oxford: Clarendon Press, 2003). Carnap, Rudolf, fundamentos lgicos de la probabilidad (Chicago: University of Chicago Press, 1950). Carnap, Rudolf, El Continuum de mtodos inductivos (Chicago: University of Chicago Press, 1952). Carnap, "Significado Postulados", en el significado y necesidad (Chicago: Phoenix Books, 1956): 222-229. Charles, J., Hocker, A., Lacker, H., Le Diberder, FR, T'Jampens, S., "Estadsticas Bayesianas en el trabajo: la extraccin Problemtica del CKM fase alpha", URL: http://aps .arxiv.org/abs/hep-ph/0607246 (7/22/2006). Christensen, David, poner la lgica en su lugar: restricciones formales sobre la creencia racional (Oxford: ClarendonPress, 2004).

Christensen, David, "Confirmacin de medicin", Journal of Philosophy 96 (1999): 437461. de Finetti, Bruno, "La Previsin: logiquesloisses, SE fuentes subjetivos" (Annales de l'Institut Henri Poincar 7 (1937): 1-68 Traducido al Ingls y reimpreso en Kyburg y Smokler,. Estudios de probabilidad subjetiva (Huntington , NY: Krieger, 1980). Doob, JL, "Qu es una martingala", American MathematicalMonthly 78 (1971): 451-462. Earman, John, Bayes o el busto? Un examen crtico de la Teora de confirmacin bayesiano (Cambridge, MA: MIT Press, 1992). Eells, Ellery y Branden Fitelson. "Confirmacin y Prueba de medicin", Journal of Philosophy 97 (2000): 663-672. Eells, Ellery y Branden Fitelson. "Simetras y asimetras en apoyo probatorio", Estudios Filosficos 107 (2002): 129-142. Fitelson, Branden. "La pluralidad de Medidas bayesianos de la Confirmacin y el problema de medir la sensibilidad," Filosofa de la Ciencia 66 (Actas Suplemento) (1999): S362-378. Fitelson, Branden. "Examen de James Joyce, Los fundamentos de la Teora de la Decisin Causal ", en la mente 112 (2003): 545-551. Gaifman, H., y Snir, M., "Las probabilidades ms ricos Idiomas", Journal of SymbolicLogic 47 (1982): 495-548. Garber, Daniel, "Evidencia antiguo y omnisciencia lgica en la teora bayesiana de confirmacin", en J. Earman, ed., probar teoras cientficas , Estudios del Medio Oeste en la Filosofa de la Ciencia , vol. X (Minneapolis: University of Minnesota Press, 1983): 99131. Goldman, Alvin I., Conocimiento en un Mundo Social (Oxford: ClarendonPress, 1999). Goodman, Nelson, Realidad, Ficcin y Pronstico (Cambridge: Harvard UniversityPress, 1983). Glymour, Clark, Teora y Evidencia (Princeton: Princeton UniversityPress, 1980). Hacking, Ian, "Probabilidad Personal poco ms realista", Filosofa de la Ciencia 34 (1967): 311-325. Hempel, Carl G., Aspectos de la explicacin cientfica (Nueva York: Free Press, 1965). Horwich, Paul, Probabilidad y Prueba (Cambridge: Cambridge UniversityPress, 1982). Howson, Colin, y Peter Urbach, razonamiento cientfico: el enfoque bayesiano, 2 ed. (Chicago: Open Court, 1993). Jaynes, ET, "probabilidades a priori", Instituto de Ingenieros Elctricos y Electrnicos Transacciones en Sistemas de Ciencia y Ciberntica , SSC-4 (1968): 227-241. Jaynes, ET (ed. por G. Larry Bretthorst), Teora de la Probabilidad: La Lgica de la Ciencia (Cambridge: Cambridge UniversityPress, 2003). Jeffrey, Richard, La Lgica de la Decisin, 2 ed. (Chicago: University of Chicago Press, 1983).

Jeffrey, Richard, probabilidad y el arte de la Sentencia (Cambridge: Cambridge UniversityPress, 1992). Jeffreys, Harold, Teora de la Probabilidad , 3 ed. (Oxford: ClarendonPress, ([1948] 1961). Joyce, James M., "Vindicacin Nonpragmatic del probabilismo", Filosofa de la Ciencia 65 (1998): 575-603. Joyce, James M., Los fundamentos de la Teora de la Decisin Causal (Cambridge: Cambridge UniversityPress, 1999). Kaplan, Marcos, Teora de la Decisin como Philosophy (Cambridge: Cambridge UniversityPress, 1996). Keynes, John Maynard, A Treatise on Probability (London: Macmillan, 1921). Kitcher, Felipe, "la divisin del trabajo cognitivo", Journal of Philosophy 87 (1990): 5-22. Lange, Marc, "Calibracin y el papel epistemolgico de condicionalizacin bayesiano", Journal of Philosophy 96 (1999): 294-324. Laplace, PS marqus de, Thorie des AnalytiqueProbabilitis , 3 ed. (Paris: GauthierVillars, ([1820] 1886). Levi, Isaac, La Empresa del Conocimiento (Cambridge, Mass.: MIT Press, 1980) Levi, Isaac, la fijacin de la creencia y su ruina (Cambridge: Cambridge UniversityPress, 1991). Lewis, David, "Gua para el subjetivista de azar objetivo", en Richard C. Jeffrey, ed., estudios realizados en la lgica inductiva y probabilidad, vol. 2 (Berkeley: University of California Press, 1980): 263-293. Maher, Patrick, "Prediccin, alojamiento, y la lgica de la investigacin", PSA , vol. 1 (1988): 273-285. Maher, Patrick, apuestas en teoras (Cambridge: Cambridge UniversityPress, 1993). Mikkelson, Jeffrey M., "La disolucin del Vino / Agua Paradox", Diario britnico de la Filosofa de la Ciencia 55 (2004): 137-145. Pollock, John L., Probabilidad econmica y los fundamentos de la induccin (Oxford: Oxford UniversityPress, 1990). Popper, Karl, La lgica de la investigacin cientfica , 3 ed. (Londres: Hutchinson, 1968). Quine, AVD, "Carnap en verdad lgica", en Los Caminos de Paradox (New York: RandomHouse, 1966): 100-125. Ramsey, Frank P., "Verdad y probabilidad", en Richard B. Braithwaite (ed.), Los fundamentos de las matemticas y otras Ensayo Lgico (Londres: Routledge and Kegan Paul, 1931 Verifique la fecha de publicacin), pp 156-198. Reyni, A., "Por una nueva teora axiomtica de la Probabilidad", Acta MathematicaAcademiaeScientiariumHungaricae 6 (1955): 285-385. Rosenkrantz, RD, Fundamentos y aplicaciones de la probabilidad inductiva (Atascadero, CA: Ridgeview Publishing, 1981).

Savage, Leonard, Los Fundamentos de Estadstica, 2 ed. (Nueva York: Dover, 1972). Seidenfeld, Teddy, Joseph B. Kadane, y Mark J. Schervish, "de las preferencias compartidas de dos decisores bayesianos", Journal of Philosophy 86 (1989): 225-244. Shimony, Abner, "Una derivacin Adamite del clculo de probabilidades", en JH Fetzer, ed,. Probabilidad y Causalty (Dordrecht: Reidel, 1988). Skyrms, Brian, Pragmtica y Empirismo (New Haven: Yale UniversityPress, 1984). Skyrms, Brian, TheDynamics de deliberacinracional (Cambridge, Mass.: Harvard University Press, 1990). Sober, Elliott, "bayesianismo, su alcance y sus lmites", en Richard Swinburne, ed,. Teorema de Bayes (Oxford: Oxford UniversityPress, 2002): 21-38. Strevens, Michael, "bayesiano Confirmacin Teora: la lgica inductiva o inductiva Marco Mere?", Synthese 141 (2004): 365-379. Teller, Paul, "condicionalizacin, Observacin, y el cambio de preferencias", en W. Harper y CA Hooker, eds. Fundamentos de la Teora de la Probabilidad, Inferencia Estadstica y teoras estadsticas de la Ciencia (Dordrecht: D. Reidel, 1976). Van Fraassen, Bas C., "Calibracin: A Justificacin de frecuencia para Probabilidad Personal", en RS Cohen y L. Laudan, eds. Fsica, Filosofa y Psicoanlisis: Ensayos en honor a Adolf Grnbaum (Dordrecht: Reidel, 1983). Van Fraassen, Bas C., "La creencia y la voluntad", Journal of Philosophy 81 (1984): 235256. Van Fraassen, Bas C., "La creencia y el problema de Ulises y las sirenas", PhilosophicalStudies 77 (1995): 7-37. Williamson, Jon, "aditividad contable y probabilidad subjetiva", Brit. J. Phil. . Sci. 50 (1999): 401-416. Williamson, Jon, "Motivando bayesianismo Objetivo: Desde limitaciones empricas a probabilidades objetivas", en WE Harper y GR Wheeler, eds. Probabilidad e Inferencia: Ensayos en honor de Henry E. Kyburg, Jr. (Amsterdam: Elsevier, 2007). Zynda, Lyle, "Evidencia antiguo y las nuevas teoras", PhilosophicalStudies 77 (1995): 6795.

Vous aimerez peut-être aussi