Albano Cruz
[ web personal ]
[ status: active ]

Fatalismo y big data

Ser fatalista1 es sostener la predeterminación de los eventos por venir, sin opción a que esos eventos no sucedan. Aunque parezca que es algo reservado al ámbito de las creencias religiosas o similares,o que es una premisa/axioma del que partir, hay un fatalismo que es el resultado directo del conocimiento perfecto sobre el futuro.2 Ese es el argumento empleado en la entrada sobre Arrival. Cuando en ese artículo se permite contemplar lo que haremos al manejar la máquina dispensadora se abre la pregunta de si podemos hacer otra cosa. No sólo se da la paradoja sobre la causalidad/origen de la información, sino que además emerge la cuestión de la predeterminación. En resumidas viene a decir:

- si mi conocimiento sobre el futuro es infalible,
- entonces lo que sé sobre el futuro se cumplirá

Por supuesto si ese conocimiento versa sobre lo que sucederá, entonces ese suceso futuro conocido es inevitable. Llamamos a esa inevitabilidad predeterminación. Y si matizamos la cuestión desde la persectiva lógica podemos decir que:

01. Toda proposición3 o bien es cierta o es falsa.
02. La cantidad de proposiciones son infinitas.
03. Por lo tanto habrá proposiciones ciertas sobre el futuro.
04. Por lo tanto el futuro es infaliblemente predecible.
05. Por lo tanto el futuro está predeterminado.

Expresado así parece una conclusión contundente. Y nada desdeñable, porque si tomamos la ciencia como la pretensión cartesiana de predecir el futuro tal y como sucederá, el propio triunfo de la ciencia sería la negación de la libertad humana. El problema del conocimiento perfecto es el problema de la omnisciencia de Dios, bajo la forma de la capacidad humana de previsión.

Big Data

A partir de lo anterior podemos despejar parte de la mitología que se nos cuela cuando aceptamos sin demasiado examen las veleidades del big data. Un grupo de premisas análogas a las anteriores podrían ser:

01. Los datos reflejan algo real (son ciertos).
02. Cuantos más datos, mejor.
03. A más datos, más cantidad de ellos serán significativos.
04. Por lo tanto el futuro será predecible.

Tras este planteamiento lo que nos encontramos es la pretensión de que predecir es tan sólo un problema con dos variables: el nivel de detalle de lo que se conoce, y la manera de dar sentido a ese detalle. O dicho de otra manera, sólo necesito datos suficientes y el algoritmo que construya la predicción cierta.

Se pueden resumir ambos panoramas en la siguiente declaración:

El futuro ya está ahí.
Tan sólo hay que encontrar la manera de revelarlo.

Para el fatalismo lógico, el conocimiento sobre el futuro es tan sólo un problema de alcance de comprensión o herramientas humanas. Para el big data, tan sólo de herramientas. Tal es su promesa comercial.

Réplica al fatalismo lógico

Sin embargo podemos objetar al desarrollo del argumento lógico cuestionando una a una cada declaración:

01. Toda proposición o bien es cierta o es falsa.

¿Y el tetralemma? ¿Cabe la posibilidad de que algo no sea ni cierto ni falso? ¿O falso y cierto a la vez? ¿Y la dialetheia? ¿Y si sólo es cierto lo que se demuestra?

Como toda premisa de la que se parte, y que cuenta con ser evidente en sí misma para que adopte un carácter axiomático, igual que se acepta se puede rechazar si esa autoevidencia es sólo aparente.

02. La cantidad de proposiciones son infinitas.

Esta premisa tiene una de sus fundamentos en la componibilidad. Puesto que se pueden elaborar infinitas combinaciones de los elementos que componen un lenguaje, parece que se asume que todo puede ser dicho. ¿Es así? ¿Es cualquier cosa expresable en al menos un lenguaje?

Este principio, el de la componibilidad, es lo que da consistencia al ejemplo del mono en la máquina de escribir: si tienes al primate tecleando aleatoriamente suficiente tiempo, al final escribirá El Quijote.4

Así bien, aunque sea cierto que la cantidad de proposiciones sea infinita, no podemos asegurar que todo suceder sea señalable con una proposición. Aunque nos guste pensar que sí.

03. Por lo tanto habrá proposiciones ciertas sobre el futuro.

Visto las objeciones anteriores, esta conclusión podríamos rechazarla con rapidez. Si cuestionamos la certeza, esta conclusión es posible que no necesaria. Si cuestionamos la proposicionabilidad de los sucesos, puede que la certeza sobre el futuro esté simple y llamamente fuera de nuestro alcance.

Ahora, podemos plantearnos una versión débil de la conclusión: si aceptamos que hay proposiciones ciertas, puede que haya suficientes de ellas sobre el futuro. Hemos rechazado la conclusión, en favor de la introducción de la modalidad o la probabilística, dependiendo de en qué campo estemos trabajando.

04. Por lo tanto el futuro es infaliblemente predecible.

O no. Visto lo anterior, argumentar contra ésto es trivial.

05. Por lo tanto el futuro está predeterminado.

O no. Visto lo anterior, argumentar contra ésto es trivial.

Réplica al big data

Análogamente podemos reflexionar sobre el big data:

01. Los datos reflejan algo real (son ciertos).

Si consideramos un dato como una proposición, el problema de la veracidad del dato es el problema de la veracidad de la proposición. Amén de que cualquier dato se enfrente a los problemas de propios del medir, como el sesgo, la significación, etc, etc.

02. Cuantos más datos, mejor.

Podría ser que lo que necesitamos como punto de partida no fuera capturable como dato, por ejemplo. O que el valor de certeza del dato no fuera determinable.

03. A más datos, mayor significación.

Esto responde a esa idea de que a mayor detalle más precisa es la imagen de lo que hay. Que no tenga por qué es una consecuencia directa de cualquiera de las objeciones anteriores.

04. Por lo tanto el futuro será predecible.

La predictibilidad en el big data depende tanto del muestreo como del algoritmo. Y de un tercer paso, que es el de la interpretación humana.5 Esta conclusión puede ser rechazada tanto por no seguirse viendo los puntos anteriores, como por entender que ese tercer paso, el humano, puede dar al traste con todo el proceso.6

Tener fe

Mientras entendamos las limitaciones inherentes al big data, comprenderemos que los resultados arrojados por los procesos que llamamos así son de índole estadística, y fruto de cajas negras. Como tales, su validez es siempre posterior al hecho objeto de la predicción. El big data no supera la barrera de la inducción empírica. Proclamar lo contrario, conceder al big data la capacidad de predicción perfecta, es un acto religioso.7

Y si en algún momento sucediera que el big data diera ese salto, el fatalismo quedaría probado, y habríamos fabricado nuestro primer Dios material.

¿Es útil y válido el big data? Sí, claro. Siempre y cuando no lo tratemos ni como panacea ni como una forma de revelación de lo que el mundo es. La interpretación del big data es un proceso matemático, y como tal no se libra de los problemas que estudia la filosofía de las matemáticas o la epistemología. Incluso la metafísica.

* * *

1 Fatalism en la SEP.

2 Foreknowledge and Free Will en la SEP.

3 Entendemos aquí como proposición un señalar algo. Una proposición es tanto una declaración sobre algo que sucede (o no sucede). Si la proposición P resulta cierta, entonces es cierto que aquello que P señala sucede. Por ello son los portadores del valor de verdad del suceso. Ahora, no son el suceso en sí.

4 Que es otra manera de acercarnos al problema de la suerte y la moral. Si El Quijote puede ser fruto de la aleatoriedad, ¿por qué Cervantes tiene más mérito que el mono?

5 Problemas en el análisis de imágenes MRI. En inglés.

6 Lo que conduce inexorablemente a la eliminación del humano del proceso. La inercia hacia la objetivización del resultado del algoritmo es imparable.

7 Y conceder la de predicción suficiente también, pero menos. Y a eso lo llamamos confianza.

// etiquetas // - futuro - predicción - conocimiento - destino - bigdata