Uno de los elementos más sugerentes del régimen discursivo de la smart city es su apelación al surgimiento de una nueva ciencia de las ciudades. En una era de esplendor tecnológico, apelar a la ciencia como catalizadora de una nueva forma de pensar y construir las ciudades resulta atractivo. Sin embargo, no es algo novedoso. De hecho, ya en 1913 el término The city scientific ya fue utilizado por George B. Ford como título de su conferencia en la quinta reunión anual de la National Conference on City Planning celebrada en Chicago.
Entender las dinámicas urbanas a través de un aparato cibernético, de ecuaciones y algoritmos ha sido un empeño cíclico. Hoy planteamientos como los de Geoffrey West, Luis Betttencourt o Michael Batty son una continuación o reedición de los primeros trabajos de Jay Forrester y otros en el MIT desde finales de la década de 1950. Estos ejercicios no quedaron en el ámbito académico o en los laboratorios de simulación, sino que fueron llevados a la práctica en ciudades como Pittsburgh o Nueva York con sonoros fracasos y críticas posteriores. De esta forma, esta disciplina sufrió su particular viaje por el desierto hasta que fue redescubierta por IBM a principios del siglo XXI para aplicarla en Portland, a través de nuevos modelos más complejos, refinados y sistemáticos. De nuevo, sus resultados fueron decepcionantes para los gestores públicos, en un caso que refleja las limitaciones teóricas y, sobre todo, prácticas de este tipo de acercamientos.
Esta nueva ciencia de las ciudades ha sido, en realidad, más impulsada desde grandes titulares de periódicos más que por los propios nombres antes citados quienes, si bien es cierto que ofrecen sus recursos científicos con rotundidad como un conocimiento objetivable sobre el funcionamiento y la predicción sobre el futuro de las ciudades, suelen ser más humildes en la forma de presentar sus argumentos. Aún así, esa nueva ciencia tiene un fuerte predicamento, hasta el punto de que son varias las universidades en el mundo que están alineando sus departamentos y facultades para ofrecer programas de formación y de investigación proponiendo esta nueva ciencia como reclamo (Center for Urban Science + Progress, Centre for Advanced Spatial Analysis, Santa Fe Institute, etc.). Sin embargo, más allá de su utilización como reclamo propagandístico, esta “ciencia de las ciudades” está lejos de ser una disciplina de contornos exactos.
En cualquier caso, detrás de esta reclamación de una nueva capacidad científica reside la retórica y la realidad del big data. Las implicaciones de las capacidades de recolección, almacenamiento, procesamiento y explotación de cantidades masivas de datos en un escenario de datificación de cualquier realidad social, empresarial, económica, etc. apenas han sido exploradas de manera crítica. De nuevo, nos encontramos ante una primera fase de socialización espectacularizada de un concepto y unas tecnologías que sólo ahora empiezan a apuntar sus desafíos. Uno de estos desafíos, quizá el que más se relaciona con el día a día ciudadano y el más capaz de generar impactos mediáticos es el relacionado con su potencial como tecnología de control y vigilancia y como mecanismo de discriminación laboral, criminal o como consumidores.
En este sentido, podemos hablar de una ansiedad creciente sobre la reducida capacidad de actuar frente a mecanismos de control social automatizados, invasivos, imperceptibles y masivos que están detrás de episodios de espionaje, pero también en niveles más cotidianos (principalmente, a través del control de preferencias y gustos para la manipulación comercial como consumidores).
Sin embargo, el desafío va más allá y, en muestro caso, nos interesa más su relación con la pretensión de construir unas nuevas bases científicas para el estudio del hecho urbano y la ciudad contemporánea. De nuevo, encontramos en Crawford (2014) un llamamiento a entender las implicaciones epistemológicas y culturales del big data. La propuesta de “revolución” científica del big data no implica sólo una acumulación cuantitativa de información para la mejora del conocimiento, sino también una mejora cualitativa al permitir traspasar los límites de la ciencia normal para llegar a una nueva revolución científica.
Con estas premisas, el movimiento del big data ofrece un nuevo campo de actuación en el ámbito del análisis predictivo, el análisis de sentimientos (principalmente a través de la exploración de las redes sociales), las ciencias naturales (la secuenciación genómica, por ejemplo), el urbanismo cuantitativo o el periodismo de datos, por citar sólo unas ejemplos de aplicación. En este sentido, no es más que una reedición de las promesas del positivismo, instrumentadas ahora por un aparato de gestión informacional sin precedentes. Con ello reaparece en la sociedad y en el espectro del conocimiento científico la posibilidad de conocer de manera objetiva, neutral y desinterasada la realidad a estudiar, reflejada ahora en los datos masivos observados a través de una metodología –el big data y el uso de algoritmos– capaz de ofrecernos una imagen supuestamente perfecta de la realidad.
Esta ideología cultural de fetichización de los datos se ha infiltrado en la sociedad, en las prácticas científico-tecnológicas, en los discursos institucionales y en los estudios sociales en una época dominada por las redes sociales como espacio de socialización y, sobre todo, de promoción de nuevos negocios y novedades tecnológicas.
El big data se presenta, de hecho, como un asidero en el que las ciencias sociales pueden incluso quitarse de encima su complejo frente a las ciencias matemáticas, ya que ahora disponen de un instrumental para dotar de potencial estadístico comparable al de otras ciencias cuantitativas.
Big data implica, en definitiva, un extraordinario desafío sobre los marcos de trabajo de todas las disciplinas científicas, principalmente por el cuestionamiento que implica sobre el papel de la causalidad y la correlación en el método científico. También implica la exclusión de todo lo que no es cuantificable, sea esto la economía informal, los cuidados que prestan las personas a cargo de familiares difícilmente medibles en datos, etc.
En el escenario de espectacularización y banalización de las potencialidades y limitaciones del big data, el riesgo de los sesgos cognitivos es uno de los más decisivos. La sobre-representación de ingenieros y expertos en análisis de redes sociales en muchos de los experimentos y plataformas de agregación de datos masivos y la consecuente su-representación de críticos sociales –más acostumbrados a hacerse preguntas y a tener en cuenta el riesgo de sesgos– está detrás de muchos de los proyectos invalidados por sus planteamientos viciados:
De la misma, estos sesgos se manifiestan en las exclusiones de información, lo que el big data no contiene en su aplicación práctica. A esta debilidad, las expectativas siempre responderán con una misma salida: si faltan datos, es precisamente porque necesitamos más datos, necesitamos ampliar el alcance de lo que podemos datificar, convirtiendo cualquier crítica sobre la insuficiencia de datos en un absurdo. Sin embargo, es precisamente en las ausencias de lo que no es cuantificable o lo que no es cuantificado –la perspectiva de la exclusión– donde se abren las brechas para la crítica del neo-positivismo de los datos como escenario de conocimiento perfecto de la realidad. ¿Quién deja rastro de sus actividades en la ciudad? ¿Quiénes participan en los circuitos e infraestructuras captadores de datos digitales? ¿Es esta la realidad reflejada a través de estos rastros digitales? ¿Quién no participa de estos circuitos de datificación? Y, sobre todo, ¿de qué manera el uso del big data responde a una realidad fraccionada?
Manu Fernández (@manufernandez) — Analista urbano y autor del blog Ciudades a Escala Humana.