Tecnologías nuevas, ideas viejas.


Los cambios tecnológicos suelen ir por delante de los cambios culturales. Los cambios tecnológicos abren posibilidades que no son descubiertas ni aprovechadas por el ser humano hasta bastante después. A menudo el cambio tecnológico coexiste con una forma de pensar periclitada y entonces los resultados pueden ser especialmente dramáticos. Los ejemplos son particularmente atroces en el caso de la guerra.

En la imagen que ven (tomada en 1917) unos soldados franceses que parecen sacados de 1870 (kepis rojo en la cabeza, vistosos unifomes azul marino) prueban una ametralladora St. Etienne. En el inicio de la 1ª Guerra Mundial la ametralladora era un arma nueva y los ejércitos nunca se habían enfrentado seriamente a su poder. Hasta la guerra de secesión norteamericana los soldados combatían casi igual que en la época de Napoleón… el ánima rayada de los fusiles mejoró muchísimo su eficacia pero las ideas ancladas en la mente de los generales norteamericanos que les mandaban hicieron que siguieran combatiendo de una forma que ya no servía más que para que los soldados muriesen a racimos. Con la ametralladora pasó otro tanto, hasta que los generales se convencieron de que este arma había cambiado la forma de hacer la guerra ellos siguieron aferrados a sus antiguas ideas y la mortandad provocada por las ametralladoras alcanzó cotas desconocidas. Soldados del XIX con armas del siglo XX, la foto ilustra bien la paradoja de cómo el ser humano no alcanza a comprender las consecuencias de los cambios tecnológicos hasta que la realidad le sacude en el rostro con toda su crudeza. En los últimos 30-40 años hemos venido viviendo una revolución tecnológica de dimensiones nunca vistas hasta ahora y, mientras pienso en ella, miro a estos soldados de kepis rojo y a los oficiales que les mandan y me pregunto si no estaremos reproduciendo el patrón de conducta que tantas desgracias ha causado. El coste esta vez, probablemente, no se pagará en vidas humanas pero sí, seguramente, en derechos y libertades. Otro día hablaremos de eso.

Y para finalizar una nota: la foto que ven arriba es una auténtica foto en color, no está pintada. Los hermanos Lumiere no sólo inventaron el cinematógrafo sino que además diseñaron un procedimiento más que decente para hacer fotos en color aprovechando (entre otras cosas) el almidón de la patata; llamaron al proceso «autochrome» y gracias a él tenemos fotografías en color de 1900 a 1930.

La singularidad tecnológica jurídica

Quizá no hayan ustedes oído hablar de la «singularidad tecnológica», si no es así, muy resumidamente les cuento qué es con la inapreciable ayuda de la wikipedia: la singularidad tecnológica (o simplemente, «la singularidad») es una hipótesis según la cual el advenimiento de la superinteligencia artificial desencadenará abruptamente un crecimiento tecnológico desenfrenado, dando lugar a cambios insondables en la civilización humana. De acuerdo con esta hipótesis, un agente inteligente actualizable (tal como un ordenador que ejecuta la inteligencia artificial general basada en software) entraría en una «reacción» de ciclos de auto-mejora, con cada generación nueva y más inteligente apareciendo más y más rápidamente, resultando en una poderosa superinteligencia que, cualitativamente, superaría con creces toda la inteligencia humana.

Sé que suena a ciencia-ficción y sin embargo a la mayoría de los científicos no les resulta esta de la singularidad una hipótesis extraña ni increíble sino todo lo contrario, en general la consideran natural. Padres o precursores de la revolución tecnológica como el mismísimo John Von Neumann admitían la singularidad como perfectamente natural e incluso la mencionaron en años ya tan lejanos como 1950:

«El progreso cada vez más veloz de la tecnología y los cambios en el modo de vida humano parecieran dar a entender que se acercar alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal y como ahora los conocemos, no podrían continuar…»

Quizá a alguno de ustedes le parezca un sueño pero, viniendo este sueño de John Von Neumann, yo me lo tomaría muy en serio, pues pocas personas han sido más certeras en materia de sueños que él, permítanme no añadir más y dejarles sólo un link a su biografía.

John Von Neumann además fue el primero en manejar con naturalidad el concepto de máquinas autorreplicantes, un concepto que sitúa a la tecnología en el umbral del salto evolutivo y de la aparición de nuevas formas de vida distintas de las que ahora conocemos. La mezcla de este último concepto y el de la singularidad nos conduce a inquietantes visiones del futuro pero no teman porque, según los científicos más reputados, para llegar a la singularidad faltan bastantes años… entre 20 y 100… o quizá menos 🙂

La singularidad para algunos, entre los que me cuento, no se producirá de forma abrupta sino que irá ganando espacios progresivamente hasta alcanzar ese instante decisivo; déjenme que les explique mi primer contacto con la singularidad.

Yo he jugado al ajedrez desde joven y he procurado mantener hasta hoy un nivel de juego que me permita tomar parte en competiciones de cierto nivel y disfrutarlas (¿te he contado que yo jugué contra el campeón del mundo en una última ronda?) por eso, dada mi edad (56) he podido seguir de primera mano el nacimiento y evolución de los programas de ajedrez por ordenador.

Recuerdo que hasta 1985 los artefactos que jugaban al ajedrez eran cachivaches inútiles a muchos de los cuales incluso les costaba enrocarse y comer al paso. Pero en 1985 y corriendo sobre un entonces flamante «Sinclair QL» tuve la ocasión de jugar contra el programa «Chess» de la empresa Psion y programado por Richard Lang. Gané pero debo decir que allí ya había un oponente y no una mera curiosidad. Siempre pensé (y me equivocaba) que los ordenadores nunca serían mejores que un ser humano jugando al ajedrez, pero la década posterior me demostró cuan equivocado estaba. Anatoli Karpov, campeón mundial, sostenía que esto no le preocupaba lo más mínimo pues, por ejemplo, los coches son más veloces que los hombres y nadie se siente mal por ello, pero lo del ajedrez no era como la velocidad en los coches, para mí el ajedrez era una forma de arte y que una máquina pudiera superarnos en algo tan íntimo y tan humano como es la reflexión y el raciocinio me inquietó durante bastante tiempo hasta que asumí que aquella «singularidad» era irreversible.

Así pues, al menos en lo que al ajedrez respecta, la singularidad podríamos decir que ya ha tenido lugar, ahora conviene preguntarse si esa «singularidad» parcial o de vía estrecha amenaza a otras áreas de mi vida como es el ejercicio profesional. Sé que sí, pero, a ello, dedicaremos otro post, hoy es tarde y debo dormir. Les dejo hasta el nuevo post con este video que quizá les aclare —o no— algunos conceptos.

https://youtu.be/bfNTwTQSRzk

Por qué la justicia necesita software libre: el caso Toyota Camry


No hace muchos días la cuenta de tuíter del Ministerio de Justicia exhibía con indisimulado orgullo unas fotografías de una reunión del ministro Rafael Catalá con representantes de Microsoft la empresa norteamericana de software y campeona del llamado software propietario. Decidí responder a ese tuit del ministerio recordando al ministro que, en materia de software, la primera opción para la justicia debiera ser el software libre. Al hilo de este tuit se originó un interesante debate entre quienes se mostraban más y menos estrictos en cuanto a esta prioridad en el que participaron personas de sólida formación académica. Hasta aquí todo relativamente normal y hasta anodino; sin embargo, antes de dejar de leer este post, permítanme que les cuente una historia que probablemente despierte su interés en todo este asunto.

A finales de la primera década de este siglo la empresa Toyota comenzó a recibir numerosas quejas en su división de Estados Unidos. Muchos conductores se quejaban de que, en ocasiones, el modelo Camry comenzaba a acelerar de forma imprevisible y sin que su conductor pudiese hacer nada para evitarlo. Pronto se produjeron las primeras víctimas e incluso el conductor de uno de aquellos Toyota fue encarcelado tras ser declarado culpable de un accidente.

Al principio nadie creyó a quienes decían que el coche había acelerado por sí solo, de hecho se encargó un estudio a la NASA que certificó que el coche funcionaba perfectamente y ello, junto con numerosas investigaciones e interrogatorio de afectados hizo que Toyota diese el caso por jurídicamente cerrado.

Sin embargo, entre finales de 2009 y principios de 2010 Toyota había comenzado a llamar a los propietarios del modelo Camry para solucionar algunos aspectos. Toyota pensó que las alfombrillas podían interferir en el correcto funcionamiento del acelerador y atascarlo de forma que probó a cambiarlas e incluso a serruchar el pedal del acelerador pensando que podía haber un problema en la barra… pero sin éxito. Los casos de conductores que afirmaban que su Toyota había acelerado espontáneamente continuaron y los accidentes… también. Para enero de 2010 Toyota había llamado a revisión unos 7,5 millones de vehículos a causa de los problemas con el acelerador.

Sin embargo el 24 de octubre de 2013 la suerte se acabó para Toyota cuando un jurado falló contra ella y la declaró culpable de la aceleración espontánea de sus vehículos. La prueba decisiva la ofreció Michael Barr, un ingeniero de software que examinó el código que gobernaba el funcionamiento del acelerador electrónico de los Camry y declaró que el mismo era «una basura» y que estaba lleno de malas prácticas.

Michael Barr, naturalmente, sólo pudo alcanzar esta conclusión cuando logró examinar el código fuente que gobernaba el acelerador electrónico y esa es precisamente la piedra angular del debate.

Nadie, ni la NASA, puede examinar con eficacia como funciona un programa informático si el fabricante no desvela su código fuente y eso, para empresas como Microsoft y muchas otras firmes defensoras del software propietario, es casi una blasfemia. Un programa de software cuyo código fuente nos sea desconocido puede hacer cosas que nunca sabremos que hace (¿qué tal avisar a la NSA si algún juzgado español recibe una denuncia en la que esté involucrada?) o simplemente puede hacerlas mal y producir un importante número de víctimas como en el caso del Toyota Camry.

Se dice que no es preciso que el código sea abierto si el programa es eficiente; yo creo que no, que ese argumento sólo es válido en casos extremos. La seguridad de los datos contenidos en los expedientes judiciales es vital y sólo estaremos seguros de que no acceden a ellos personas distintas de las autorizadas cuando el software que maneja esos datos sea auditable, quiero decir, que los Michael Barr de España puedan tener acceso a su código fuente.

Por eso, cuando veo que se gastan ingentes cantidades de dinero en licencias de programas de código propietario, tengo la sensación de que, quien así lo hace, carece de la visión necesaria para tener una justicia verdaderamente moderna y eficaz. Lo lamento por todos nosotros.

¿Judas o Ludwig?

Por favor, respóndame: ¿Comenzar a leer este post ha sido decisión suya? ¿O quizá estaba ya escrito en alguna parte que usted hoy y a esta hora leería este post? Se lo preguntaré de otro modo: este encuentro de hoy entre usted y yo ¿es casual o es una cita?

Si lo piensa, para que usted esté leyendo hoy este post, necesariamente ha tenido que producirse antes una conspiración universal: desde su nacimiento y el mío (y el de todos nuestros antepasados hasta llegar a la primera célula viva) hasta que a mí me diese por escribir el post y a usted por leerlo. Pensarlo da un poco de vértigo porque, si bien se examina, desde el big-bang hasta aquí, todos los hechos de la historia del universo se han ido sucediendo con precisión infinita para que yo haya podido escribir hoy este post y para que, usted —hoy y a esta hora— pueda leerlo. Créame, si alterásemos un sólo nanosegundo de la historia del universo yo no habría escrito este post y usted, en este momento, no me estaría leyendo.

Esto que le acabo de contar no se me ha ocurrido a mí solo, naturalmente, sino que lo han pensado millones de personas antes que yo y es el pensamiento que se encuentra tras las teorías conspirativas, fatalistas, deterministas o calvinistas y es también el pensamiento que bulle detrás de eso que —vulgarmente— llamamos «predestinación».

Si un personaje encarna a la perfección el drama de la «predestinación» este no es otro que el de Judas, el apóstol que traicionó a Jesús. Si Jesús era Dios y por tanto conocía el futuro sabía sin duda que Judas le entregaría y conforme al Evangelio, en efecto, lo sabía:

Llegada la tarde, Jesús se puso a la mesa con los Doce. Y mientras comían, les dijo: «En verdad les digo: uno de ustedes me va a traicionar.» Se sintieron profundamente afligidos, y uno a uno comenzaron a preguntarle: «¿Seré yo, Señor?» El contestó: «El que me va a entregar es uno de los que mojan su pan conmigo en el plato. El Hijo del Hombre se va, como dicen las Escrituras, pero ¡pobre de aquel que entrega al Hijo del Hombre! ¡Sería mejor para él no haber nacido!» Judas, el que lo iba a entregar, le preguntó también: « ¿Seré yo acaso, Maestro?» Jesús respondió: «Tú lo has dicho.» (Mateo 26).

Esta lectura deja en el aire muchas preguntas: si Jesús sabía que Judas le traicionaría ¿por qué le dejó hacerlo y así condenarse? y… si no le hubiese dejado ¿se habría estropeado todo el plan previamente trazado de pasión, muerte y resurrección?. Por otro lado ¿podía Judas hacer otra cosa que entregar a Jesús? ¿Podía el libre albedrío de Judas ir en contra del siniestro destino que ya estaba escrito para él?

Con fundamento en esta paradoja, sobre el siglo II o III, se escribió el llamado «Evangelio de Judas», un corto texto de naturaleza gnóstica que nos presenta a Judas como el discípulo predilecto de Cristo y el único que sabía realmente —junto con Jesús— qué es lo que iba a pasar la noche de la última cena. Desde este punto de vista Judas era la clave de los planes divinos y, por tanto, no era conforme a este «evangelio» un réprobo sino el primero de los justos.

Más adelante volveremos con Judas, por el momento dejaremos a un lado evangelios e historias sagradas y volveremos al campo de lo científico, porque el determinismo, el fatalismo o la predestinación no son cuestiones ajenas a la ciencia sino que, por el contrario, han sido la propia ciencia y los científicos quienes, a veces sin demasiada conciencia de ello, han contribuido a establecerlos firmemente entre nuestros hábitos de pensamiento y esto nunca fue tan evidente como en los años que siguieron a los descubrimientos de Sir Isaac Newton.

Hasta principios del siglo XX explicar el estado del universo era para los científicos tan sencillo como aplicar las leyes de Newton. Se podía decir dónde había estado cada cuerpo celeste en un momento determinado de la historia y dónde estaría en el futuro; conforme a las leyes de Newton no parecían existir procesos irreversibles bastaba con pasar de t a -t para pasar del futuro al pasado del universo con toda sencillez. La sensación de que el azar no cabía en este universo y de que había un plan predeterminado de antemano para el funcionamiento del cosmos se afianzaron. Se llegó a un curioso convencimiento: si la ciencia no es capaz de predecir el futuro es porque no dispone de todos los datos necesarios porque, cuando dispone de ellos, el futuro no es más que una consecuencia de las condiciones presentes. Por más que los seres humanos perciban el tiempo como una realidad muy cierta y el azar como algo evidente, el universo de Newton no se comporta de forma caprichosa y el azar no es más que una apariencia que nace de nuestra ignorancia; en suma: Dios no juega a los dados. Judas kaputt. Fin del post y pregunta respondida: si usted ha leído hasta aquí es porque así estaba escrito, si lo deja ahora es porque así está escrito y si continúa leyendo es porque está predestinado a ello. Yo le animo a seguir leyendo aunque sólo sea por darle un corte de mangas al destino y porque usted y yo sabemos que el tiempo y el azar existen aunque no sepamos explicarlo. Y le animo a seguir también porque quisiera hablarle de Ludwig.

Ludwig, como Judas, fue un hombre sin suerte: en un tiempo en que los átomos no eran más que una interesante analogía para muchos científicos, él se empeñó en trabajar con ellos defendiendo su existencia real. Ludwig dedicó años a estudiar el orden del cosmos pero, para su desgracia, todo cuanto veía en nuestro mundo contradecía sus predicciones. Los estudios de Ludwig dejaban sentado sin ningún lugar a dudas que el orden en el cosmos no sólo no debía aumentar sino que debía disminuir hasta llegar al caos total. Y sin embargo… sin embargo Ludwig miraba a su alrededor y sólo veía orden y armonía, un orden y una armonía crecientes con las flores engendrando flores y la vida engendrando vida. Cuando los ojos afirman lo que la razón niega ni las personalidades más fuertes lo llevan bien y Ludwig, para su desgracia, no tenía madera de héroe.

Tampoco llevó bien Ludwig las críticas de los científicos de su época y aunque genios como Maxwell le apoyaron encontró opositores crueles como Ernst Mach que no le alegraron la vida en absoluto.

Fuese como fuese el caso es que, pasados los años, todos reconocieron la corrección de las teorías de Ludwig y estas teorías cambiaron el mundo y quién sabe si hasta el destino de usted y de mí pues, a partir de ahora, le garantizo que si usted deja de leer este post ya no será porque el destino le obligue a ello sino porque a usted le da la gana y si lo sigue leyendo tampoco será porque esté predestinado sino simplemente porque a usted le sale de las narices. Compruébelo.

Desde la obra de Ludwig los seres humanos saben que hay dos magnitudes que jamás decrecen en el universo, la primera es el tiempo (esa magnitud que todos sabemos qué es pero no somos capaces de explicar) y otra la entropía (una magnitud que sabemos explicar pero que en el fondo no sabemos muy bien qué es). Desde Ludwig Boltzmann los procesos irreversibles fueron ganando espacio en la escena científica, la flecha del tiempo apareció dibujada en la entropía y, de pronto, al universo determinista de Newton se le abrió una vía de agua. Más adelante la mecánica cuántica nos habló de sucesos intrínsecamente aleatorios en la naturaleza e incluso de la imposibilidad de predecir el futuro aunque tuviésemos toda la información disponible sobre el estado del sistema o del universo entero.

Quizá Judas, antes de ahorcarse, aún pudo pensar que él no era el verdadero culpable de lo sucedido y que el responsable de todo aquel drama era el espíritu que lo planeó todo y que, sabiendo que él tendría que traicionar, no le impidió hacerlo permitiendo que él se perdiera para toda la eternidad. 

La familia del pobre Ludwig, sin embargo, nunca tuvo por entero el consuelo de que aquel horror que vivieron fuese obra del destino; más bien fue un complejo conjunto de circunstancias, al final de las cuales el libre albedrío dejaba sentir su sombra ominosa, las que determinaron que aquel 5 de septiembre de 1906, Elsa, la hija de Ludwig, le encontrase ahorcado colgando de una cuerda al entrar en su cuarto. 

¿Y LexNet qué tal?

Ha pasado un año entero desde que el gobierno obligase a utilizar en los juzgados españoles un sistema de comunicaciones electrónicas denominado LexNet. El sistema, controlado por el Poder Ejecutivo y no por el Poder Judicial, levantó inmediatamente críticas por este fallo fundamental de diseño que compromete la independencia judicial en España.

Pero LexNet no sólo fue criticado por su errónea concepción de base, también fue criticado porque se afirmaba que era un sistema viejo que no suponía una verdadera modernización de la administración de justicia.

Pues bien, ha pasado un año y las estadísticas ya permiten efectuar comparaciones para tratar de comprobar si el sistema ha contribuido de algún modo a acelerar o mejorar el funcionamiento de nuestra administración de justicia. Vamos a tratar de hacerlo.

Casos resueltos (por trimestres) en los años 2015/2016. Fuente: Consejo General de Poder Judicial.
Casos resueltos (por trimestres) en los años 2015/2016. Fuente: Consejo General de Poder Judicial.

La imagen que ven muestra el número de asuntos resueltos en 2015 y 2016 por los juzgados españoles. Aparentemente LexNet habría tenido el efecto de una explosión nuclear pues el número de asuntos resueltos en 2016 es muy inferior al resuelto en 2015… pero no se dejen llevar por el primer impulso, démosle una oportunidad a LexNet. Si observan los gráficos con detenimiento la verdadera causa de la aparente «pérdida de productividad» de los juzgados españoles en 2016 es que el número de procedimientos en la jurisdicción penal ha descendido de forma dramática (se han suprimido, por ejemplo, los juicios de faltas de tráfico ¿recuerdan?) y es, por lo mismo, que la jurisdicción penal es la que muestra una mayor tendencia a la «pérdida de productividad» que las cifras indican en bruto. Mucho más indicativas son las cifras del resto de las jurisdicciones (civil, social, contencioso…)

Y para ser más justos aún no deberíamos tampoco comparar los años 2015 y 2016 en conjunto pues, en los primeros trimestres, ya sabemos que la implantación de LexNet llevó aparejados problemas notables. Probablemente lo más ajustado sería comparar el cuarto trimestre de 2015 (sin LexNet) con el último de 2016 (con LexNet) excluyendo la jurisdicción penal.

Pues bien, si lo hacemos, no sólo no parece que LexNet haya resuelto nada sino que incluso el número de asuntos resueltos ha descendido, lo que quiere decir que los juzgados españoles «producen» menos sentencias con LexNet que sin LexNet.

Pueden buscarse explicaciones para este «descenso de productividad» de los juzgados españoles que traten de exculpar a LexNet… podemos tratar de imaginar explicaciones, sí, pero lo que parece indiscutible es que LexNet, a pesar del tremendo esfuerzo que ha exigido a profesionales y funcionarios y del coste económico para los administrados, no ha conseguido —ni de lejos— aumentar la productividad de los juzgados españoles.

Por si desean consultar los datos originales del Consejo General del Poder Judicial en estos links les dejo los correspondientes a los años 2015 y 2016.

 

El año de la mentira

Posverdad (Post-truth) ha sido elegida palabra del año 2016 por el Diccionario Oxford, publicación que, en los últimos años, se ha convertido en un clásico navideño como la lotería y los gorritos de Santa Claus. En años anteriores alcanzaron el galardón de la Oxford University Press el sustantivo selfie (2013), el verbo vapear (2014) y el emoji de la risa con lagrimones que sin duda ha usado usted en whatsapp 😂 (2015).

A mí lo de Post-truth me suena a eufemismo y no a palabra cabal. “Post-verdad” suena a “pre-mentira” cuando no, decididamente, a embuste, falsedad, trola o patraña; sin embargo, comoquiera que llamar a las cosas por su nombre es algo para lo que parecemos estar incapacitados los ciudadanos del siglo XXI, hemos optado por llamar post-verdad a la mentira del mismo modo que hemos llamado “crecimiento negativo” a la recesión (amárrenme esa mosca) o incluso “pan” a esa forma de repugnante bollería industrial que venden en sedicentes panaderías. La Post-verdad y el post-ureo se imponen: si no me creen miren su facebook.

Dicho en claro, esto de la post-verdad no es más que una forma altamente sofisticada del engaño usado con fines políticos. La receta de este potaje la forman, de un lado, el desarrollo de la comunicación política profesional informada por la ciencia cognitiva, que tiene como objetivo manejar las percepciones y creencias de las poblaciones. De otro, unos medios de comunicación tradicionales en crisis, en los que la verdad es objeto de deliberada distorsión por razones sobradamente conocidas. De otro más, la feroz economía de la atención y la ingente cantidad de contenido generado por usuarios y, finalmente, de otro lado más aún, un ingrediente que me provoca creciente interés: el peculiar funcionamiento de los algoritmos que determinan lo que usted va ver en las redes sociales o los resultados que va a obtener en los motores de búsqueda.

Para el sociólogo Félix Ortega (cito directamente de wikipedia):

La manipulación de la información hace que el público no pueda conocer qué es verdad y qué falsedad. Esto se debería a la transformación de la comunicación política en propaganda, la pérdida de principios éticos por el periodismo actual y su sometimiento a intereses totalmente particulares así como la puesta en escena de los políticos hacia el espectáculo, la manipulación y la fragmentación de la ciudadanía.

Hasta aquí no creo haber contado nada que ustedes no sepan, pero hay un aspecto, el ya citado peculiar funcionamiento de los algoritmos que determinan lo que aparece en las redes sociales o en los resultados de los motores de búsqueda, cuyos efectos no debieran pasarnos desapercibidos.

Vivimos y nos comunicamos en unas redes sociales formadas por grupos de personas con quienes compartimos en mayor o menor medida determinados puntos de vista. Es verdad que la uniformidad de pensamiento de los integrantes de estos grupos no tiene por qué ser, a priori, muy marcada; sin embargo, el funcionamiento de las redes sociales y de los motores de búsqueda en la red acaban convirtiendo en muchos casos esos grupos en auténticas “cámaras de eco”, descripción metafórica de una situación donde la información, ideas o creencias son amplificadas por transmisión y repetición en un sistema “cerrado”, donde las visiones diferentes o competidoras se censuran, se prohíben o se representan minoritariamente. Piense en sus grupos de whatsapp y quizá encuentre algunos magníficos ejemplos de lo que es una “cámara de eco” en relación con alguna de las ideologías o partidos de actualidad.

El fenómeno de las “cámaras de eco” no es exclusivo del mundo de las redes sociales; corporaciones tradicionales hay cuyos componentes son mayoritariamente ajenos al mundo de las nuevas tecnologías y donde la censura de las visiones críticas hace degenerar los principios de funcionamiento hasta convertirlos en puro onanismo corporativo. Por no mirar en España piensen simplemente en el parlamento de Corea del Norte.

Las “cámaras de eco” que las nuevas tecnologías generan en forma de grupos cerrados, ven incrementados sus efectos por el peculiar funcionamiento de los algoritmos de búsqueda.

El algoritmo de búsqueda de Google, por ejemplo, “sabe” con toda precisión cuales son sus gustos y, cuando usted realiza una búsqueda sobre algún tema, los resultados que se le ofrecen vienen sesgados de antemano por sus propios gustos personales anteriores. A este fenómeno se le llama “burbuja de filtro”.

Este fenómeno de las “cámaras de eco” y las “burbujas de filtro” se retroalimentan con las situaciones políticas polarizadas y así un estudio realizado en 2016 en adultos estadounidenses por el Pew Research Center de Washington D.C. descubrió que “aquellos con las ideas más consistentes en la izquierda y en la derecha tienen flujos de información que son distintos de aquellos individuos con puntos de vista políticos más mixtos – y muy distintos entre sí.”

Examinando todo esto uno puede llegar a entender que el post-ureo sea la forma habitual de hacer política en esta era de la post-truth; total, si no se puede llegar a saber nada debido a la batalla informacional, mejor dejarse llevar y componer las posituras que en cada momento parezcan más convenientes: lejos de nosotros la funesta manía de pensar, que dicen que dijo a Fernando VII el rector de la Universidad de Cervera.

Este ha sido un año en el que alguien engañó a alguien a la hora de dar por perdedores a Donald Trump y al Brexit. Este ha sido un año donde la mentira, la desinformación, el eufemismo y el trile lexicográfico han seguido creciendo a costa de la verdad monda. Este año, en fin, Oxford nos lo dice, ha sido el año de la *post-truth”, el año de la posverdad; es decir: el año de la mentira.

Cámara anecóica
Cámara de eco

Técnicas artísticas olvidadas

Los años 30 del siglo XX vieron nacer unas técnicas de exposición y revelado fotográfico tan sofisticadas que incluso determinaron un canon de belleza fotográfica, particularmente en lo que se refiere a la fotografía en blanco y negro.

Ansel Adams, uno de los padres de esta técnica, es sin duda una de las personalidades más reputadas en la historia de la fotografía y el arte de los Estados Unidos y junto con otros grandes fotógrafos del momento crearon el llamado “Grupo f64”, un nombre que es toda una declaración de principios, pues hace referencia a la mínima abertura posible de diafragma de un objetivo fotográfico, lo que otorga el grado máximo de definición y nitidez a las fotografías. Partidarios de la fotografía directa, es decir, no manipulada, sus fotografías más importantes se caracterizan por su gran profundidad de campo, su realismo, la composición, y el control de las zonas.

El “sistema de zonas” cautivó mi atención en la década de los ’90 del siglo pasado y, por algunos años, hizo de mí un furibundo aficionado a la fotografía en blanco y negro pues este tipo de fotografía, más que la fitografía en color, permite trabajar hasta el límite los recursos que ofrece el sistema de zonas.

De aquella época conservo la fascinación por la obra de fotógrafos como Ansel Adams o Edward Weston, artista éste último de quien no les hablaré, sólo mencionaré que, cuando voy al mercado y veo los pimientos en los puestos, me acuerdo de Edward Weston y de su genio fotográfico. Si buscan en google sabrán por qué, de momento es evidente que Weston sabía lo que hacía y yo no, véase la foto que encabeza este post.