Resumen Artículo: Parsymony and explanatory power (Farris, 2008)

Introducción

Ya desde los 80 el método de parsimonia era preferido por los sistemáticos. Kluge y Farris indicaron que el árbol más parsimonioso era el mejor ajuste a los caracteres encontrados, sin embargo no dijeron por que se debería preferir este método, Farris (1983) soluciona esto relacionando el poder explicatorio con la parsimonia, mostrando que la parsimonia calcula el grado en que un árbol puede explicar las similitudes entre los terminales como resultado de la herencia común de un ancestro.

En este artículo Farris argumenta en contra de las críticas dadas por
oponentes de la parsimonia (de Queiroz y Poe, 2003, Felsestein 2004). Por oponentes de Popper (Rieppel 2003) y por autores inventivos con sus propias y distintivas teorías acerca de Popper (Faith, 2004) y evidencia filogenética (Kluge y Grant, 2006)


Poder explicatorio
Según Farris (1983, Pág. 18) una genealogía solo puede explicar las similitudes entre organismos si estas son derivadas de un ancestro común. Aquellas similitudes que no sean explicadas por la descendencia común se denominan homoplasias (orígenes múltiples de una característica).

Estas homoplasias cuando se encuentran en una hipótesis de filogenia (árbol) son "pasos extra" y constituyen hipótesis ad hoc, es decir que aparte de que están implícitas en el árbol no tienen ninguna evidencia observacional por si mismas, y por lo tanto no pueden ser explicadas por la filogenia.

Como con todas las hipótesis científicas es deseable que una hipótesis (árbol) explique la mayor cantidad de observaciones posibles, esto significa elegir el árbol que minimice las similitudes sin explicar(hipótesis ad hoc).

Según Farris De Laet (2005) ha llegado a la misma conclusión. "Para minimizar las similitudes independientes sin explicación, sólo se necesita minimizar los pasos requeridos".

Farris argumenta que si un árbol requiere cierta homoplasia, esto no se debe entender como que la presencia de esta homoplasia falsee la hipótesis o que cuando menos el árbol sería falseado si no es rescatado por las hipótesis ad hoc. Dichas asunciones no serían necesarias en el propósito de evaluar el poder explicativo. Ya que las similitudes sin explicación son solo eso y no podrían falsear al menos que se tenga la bizarra asunción que las homoplasias son imposibles.

Farris relaciona el poder explicativo (el poder de h de explicar e, dado el conocimiento de fondo b) con la fórmula de corroboración de Popper. He indica "los mismos comentarios pueden ser aplicados a la fórmula de Popper".

Por lo tanto argumenta que el conocimiento de fondo debe ser aceptado, y que no puede recaer sobre hipótesis poco realistas.

Según Farris Popper (1959,p.410), el primer término p(e,hb) en esta fórmula es la verosimilitud (de Fisher) de h dado e y b y se puede ver fácilmente de la fórmula que E(h,e,b) se incrementa con p(e, hb) como el segundo término p(e,b) no depende de h, el árbol de mayor verosimilitud también tendrá mayor E(h, e, b). Por pura álgebra el método de máxima verosimilitud maximizará el poder de explicar las observaciones e si su modelo es incluido en b.

Farris indica que los modelos de máxima verosimilitud no pueden tomarse como conocimiento de fondo ya que son irrealistas al asumir que la tasa de sustitución entre dos caracteres requiere ser igual a lo largo de todas las ramas y que en los relojes moleculares incluso se requiere que sean uniformes.

Más aún argumenta Farris
Tuffley y Steel (1997) introdujeron un modelo llamado "No Common Mechanism” (NCM), en donde los caracteres pueden -pero no necesariamente-variar sus tasas relativas independientemente, tanto dentro como entre las ramificaciones. Debido a que la variación es tomada como una posibilidad y no como un requerimiento el NCM podría aplicarse a cualquier situación, y por lo tanto puede aceptarse como realista. Esto es útil ya que Tuffley y Steel también mostraron que máxima verosimilitud bajo el modelo de NCM selecciona los mismos árboles que lo hace la parsimonia.


Historia
Conocimiento previo

¿Que son los métodos de compatibilidad?
Los métodos de compatibilidad asumen que el criterio para definir entre filogenias debe ser el número de caracteres individuales/sitios que son estrictamente compatibles en un determinado árbol. Dos caracteres son compatibles si existe alguna filogenia en la cual estos dos caracteres pueden evolucionar sin ningún condición originándose más de una vez (no homoplasias) (tomado de http://helix.mcmaster.ca/721/phylo/node11.html

En los métodos de compatibilidad cada carácter es una hipótesis que se hace más fuerte agregándose a otro carácter que sea también compatible, creando una hipótesis más fuerte.

Contrarrestando a Felsestein

Farris le replica a Felsestein que él si hablo acerca de como contar las homoplasias, por medio de los pasos extras (el número de hipótesis ad hoc es uno menos que el número de veces que se requiere que la característica halla surgido independientemente), y también de los métodos de clique (métodos que extraen los caracteres que generan homoplasias).

Según Farris esta idea es "descabellada" ya que al hacer esto se implica que todos los puntos de similaridad de ese carácter son homoplasias. También Farris argumenta que aunque Felsestein da a entender que Henning no tiene una preferencia entre compatibilidad y parsimonia. Farris asume que ya que los métodos de parsimonia si pueden trabajar con derivaciones no únicas como sinapomorfias (surgimiento de los dientes thecodontos en Archosauromorpha y en mamíferos) y los de clique no. Al usar Henning los primeros prefiere la parsimonía.

¿Qué es la consistencia estadística?
Consistencia, dado un estadístico diremos que es consistente si al aumentar el tamaño de la muestra, el estadístico converge en probabilidad al parámetro. Dicho de otro modo, cuando la muestra se hace muy grande la probabilidad de que el estimador esté muy cerca del parámetro es casi uno (Tomado de http://estadistica.ematematicas.net/muestreo/index.php?tipo=puntual


Farris dice que Felsestein argumenta que la parsimonia puede ser estadístisticamente inconsistente, esto es que puede dar un árbol incorrecto cuando los datos comprende infinitamente más caracteres, seleccionados al azar de la población estadística definida por un modelo de ajuste. Sin embargo Farris se defiende diciendo que la consistencia solo puede asegurarse bajo modelos extremadamente simples y por lo tanto un modelo lo suficientemente complejo para ser realista, puede ser muy complejo para ser consistente.

Contrarrestando a Kluge y Grant

¿Qué son las distancias patrísticas en sistemática?
La distancia patrística es la suma de la longitud de los brazos en la vía que conecta un par de taxa. (Tomado de http://paup.csit.fsu.edu/paupfaq/paupans.html


Kluge y Grant (2006) notaron que minimizar los pasos no corresponde a minimizar las homoplasias si se permite que varíe el alineamiento (Como en POY, ver Wheeler et al., 2006). Mientras esto es bien sabido ellos lo tomaron como que la parsimonia necesitaba una nueva base filosófica y procedieron a crear la suya.

Su método se basa en el principio de antisuperfluidad (ASP), por el que ellos indican que los eventos de transformación deben ser minimizados."

Para Kluge y Grant (2004) "los estados de carácter son los individuos históricos menos inclusivos que resultan de eventos de transformación heredables". Sin embargo argumenta Farris que este planteamiento violaría la regla de exclusión de hipótesis ad hoc de Popper

Popper (1963,p. 288f)
"La regla de exclusión de ad hoc hipótesis puede tomar la siguiente forma: la hipótesis no debe repetir (excepto en una forma completamente generalizada) la evidencia o cualquier elemento conjuntivo de ella"

Según Kluge y Grant los "estados de carácter" se explican a través de hipótesis de sus relaciones filogenéticas o patrísticas, la parte patrística de la hipótesis h son las transformaciones que dieron origen a los estados de carácter que se toman como evidencia por lo que
la evidencia y la hipótesis se solapan.

Kluge y Grant (2006, p. 280) argumentan que las homoplasias no son posibles ya que se toman como "ciertas" las homologías. A lo que Farris responde que las sinapomorfias proveen evidencia de grupos monofiléticos más no los garantizan. Para Farris la homoplasia no es un imposible y tampoco son hipótesis de causa por el contrario son hipótesis de "no explicación". Por lo que se deben minimizar.

Esta minimización K y G argumentan que estaría dando por sentado que las homoplasias son poco probables, pero sin embargo no hablan nada acerca de la minimización de las transformaciones en el ASP. También clamaron que la similaridad no tiene por que explicarse ya que hace relación a una o más propiedades, y como las propiedades no mutan, por lo tanto no hay por que explicarlas por ancestría común.

A lo que Farris responde que parece notable que ellos parezcan no entender que las poblaciones pueden evolucionar simplemente sustituyendo un estado por otro.

Máxima Verosimilitud
Contrarrestando a Poe y De Queiroz

Farris argumenta que los máximo verosímiles de Poe y De Queiroz, quieren justificar, los métodos de máxima similitud como Popperianos, y aunque nunca lo hayan dicho tácitamente concuerdan con Farris en que maximizando la verosimilitud p (e, hb) se maximiza E y C. Pero aunque quieren este resultado a los métodos de máxima verosimilitud estos no desean retirar modelos irrealistas del conocimiento de fondo b.

Por lo que Poe y De Quiroz argumentan que los modelos de máxima similitud pueden ser incluidos como conocimiento de fondo y argumentan que este puede ser tentativamente aceptado, a lo que Farris contesta que para Popper "tentativamente aceptado" es corroborado por lo que no se pueden incluir estos "modelos irrealistas".

A esto Poe y De Quiroz lo atacan arguyendo que el NCM no es realista ya que no puede aceptar tasas de cambio iguales por lo que según ellos este modelo es probable que "sea falso". Farris contesta que no es necesario que la tasa de cambio sea diferente que puede ser igual y por lo tanto el modelo si es realista aunque Poe y De Quiroz quieran hacerlo ver de una manera diferente.

De Queiroz y Poe, 2003 p. 362. Dictan que según la interpretación de Farris de 1983 los caracteres que son incongruentes con una filogenia particular falsean el árbol, sin embargo para Farris si esta incongruencia esta basada solamente en el árbol esta es una hipótesis ad hoc. Por lo que no falsea el árbol aunque tampoco contribuye su poder explicatorio.

También dicen que según Farris las homoplasias no tienen poder explicatorio pero Farris hace la diferencia que solo las homoplasias sin evidencia, asumidas por el árbol, es decir las hipótesis ad hoc las que no tienen poder explicatorio y no otras homoplasias que si tengan evidencia. Dice Farris que si se tomaran las hipótesis ad hoc como explicatorias no podría elegirse el mejor árbol ni desde el método de parsimonia ni el de máxima verosimilitud ya que todos podrían tener homoplasias y ser igual de explicativos.

Inducción
Contrarrestando a Rieppel

Rieppel dice que la inducción es simétrica ya que la confirmación de una teoría A, desconfirma una teoría B, pero que el falsacionismo es asimétrico ya que puede probar que la teoría A es falsa pero no puede decir nada de la teoría B, es decir no se puede asumir "cierta" o al menos corroborada.

Farris argumenta en base a un escrito de Popper (1959, p. 406) que

Si h es confirmada o corroborada o soportada por e entonces C (h, e)>0, entonces no-h es siempre indeterminada por e, i.e. C (no-h, e) <0, y h es siempre indeterminada por no-e, i.e. C (h, no-e) <0. style="">poder explicatorio de una teoría no es su contenido empírico es decir las declaraciones observacionales que establece esa teoría. El poder explicatorio y el contenido empírico son como la "velocidad" y el "límite de velocidad" son parecidos pero no iguales.

Además dice Farris, que Popper si pretendió relacionar las hipótesis con las observaciones y no desde el punto de vista de Rieppel en el cual la evidencia no es una observación justificada por una creencia (hipótesis) si no desde el punto de vista de una vinculación lógica.

Rieppel afirma que las probabilidades que estima Popper son lógicas y no probabilísticas a lo que Farris refiere que Popper posteriormente ajusto su fórmula para trabajar también con probabilidades estadísticas.

PTP test

Argumentando Contra Faith, Trueman y Cranston (FCT)

Según FCT, la corroboración popperiana puede ser evaluada según el método de "permutación de las colas de probabilidad) PTP test. La evidencia (e) es el grado de ajuste de los datos a la hipótesis, y en el conocimiento de fondo b se puede incluir un modelo nulo, que generalmente será rechazado.

Según Faith (1992, p. 268) “La declaración del test o propuesta evidencia, e, para la hipótesis es el grado de estructura encontrada, medida como la longitud del (árbol más parsimonioso. Así la declaración del test es producida por la aplicación de la parsimonia cladistica como criterio de prueba de ajuste de los datos taxonómicos observados”

El conocimiento de fondo b refleja otras explicaciones provisionalmente aceptadas acerca de como la longitud del árbol puede resultar de dicho análisis. Faith y Cranston (1991,1992) argumentan que el conocimiento de fondo puede ser representado como un modelo nulo, en el cual los caracteres son libres de variar aleatoriamente.

FCT yace en su propia fórmula de corroboración donde C= 1-p (e, b)

Para hacer esto simplemente ignoraron el denominador y mantuvieron que es igual a la unidad. Aunque esto se contradice si la evidencia falsea la hipótesis en cuyo caso (e, h) sería 0.

Farris se opone a esto y sostiene que e no es ajuste a los datos, que las probabilidades popperianas no son probabilidades acumuladas, la corroboración no sigue las reglas de cálculo por que no es una probabilidad y que C (h, e) depende de la hipótesis y por lo tanto no se puede hacer solo función de la evidencia y del conocimiento de fondo C= 1-p (e, b).

2 comentarios: