Por Iñaki Goñi, investigador y docente del área de ingeniería, diseño e innovación (DILAB UC). Especializado en investigación interdisciplinaria, estudios de la innovación y el diseño, y psicología sociocultural. Amplia experiencia en consultoría y liderazgo de proyectos de investigación y desarrollo, con la industria y el mundo público a nivel nacional e internacional. Profesor del Diplomado en Diseño y gestión de soluciones innovadoras UC.

En una noche de Marzo de 2018, en la ciudad de Tempe, USA, Elaine Herzberg estaba cruzando una calle en bicicleta cuando fue atropellada por un vehículo autónomo de Uber que le causó la muerte. El vehículo autónomo es una innovación y estaba siendo utilizada experimentalmente en grandes ciudades para probar su eficacia. Los vehículos autónomos, como dice su nombre, son autos que se “manejan solos”, gracias a la integración de tecnologías de punta que involucran distintas disciplinas ingenieriles, tanto desde la tecnología de sensores, software, mecatrónica y modelamiento de comportamiento humano, entre otros.

¿Quién mató a Elaine Herzberg? Inicialmente la policía culpó a las personas involucradas en el incidente. A Elaine porque cruzó a oscuras en un lugar indebido. A Rafaela Vásquez, la tester de Uber que iba en el auto y estaba a cargo de desviar el auto frente a eventos inesperados. Imágenes posteriores mostraron que Rafaela estaba viendo un programa de televisión en su teléfono celular justo antes del choque.

Posteriormente, la investigación encontró serios problemas técnicos. El sensor del vehículo había captado a Elaine, sin embargo eso no condujo a ninguna acción. Es decir, el software no estaba programado para tomar la decisión correcta. 1.3 segundos antes de la colisión, el software del vehículo incluso determinó que era necesario activar los frenos de emergencia, pero no estaba diseñado para avisarle al conductor. El software fue diseñado para evitar la sensación de conducción errática y no permitió que el auto frenara de manera automática.

¿Quién mató a Elaine Herzberg? ¿fue su propia culpa por cruzar indebidamente? ¿Fue culpa de Rafaela por estar viendo su celular? ¿Fue culpa de Uber por no programar bien su software? ¿Fue culpa del diseñador del software? ¿Fue culpa del Estado de Arizona por permitir que se realicen estos experimentos con sus ciudadanos, aún cuando pueden ser inseguros? ¿Es la culpa de todos en alguna medida? Independiente de nuestra opinión, lo seguro es que las tecnologías emergentes suelen tensionar aspectos básicos de nuestro entendimiento social, por ejemplo, sobre qué significa que algo sea “lo suficientemente seguro”, cuál es el alcance de “experimentar”, cómo entender la “responsabilidad”.

A su vez, nuestra subjetividad colectiva afecta el desarrollo de la tecnología. De hecho, actualmente, en las grandes empresas, y también en la academia, existe un creciente interés por estudiar el rol de la confianza y la construcción de la confianza como requisito de diseño para los vehículos autónomos. ¿Tú te sentirías tranquilo subiéndote a un auto que no tiene manubrio, ni pedales, ni ningún medio por el cual puedas reaccionar ante una emergencia? ¿Entregarías tu seguridad a un “algoritmo”? Si te inclinas a decir que no, entonces ¿Por qué sí sientes confianza tomando un fármaco autorizado o subiéndote a un avión? La confianza es un fenómeno complejo.

Tres falacias de la innovación y una precaución

No podemos entender el cambio social sin entender el cambio tecnológico, ni tampoco a la inversa. Tal como afirma la académica de Harvard, Sheila Jasanoff en su libro The Ethics of Invention: “a través de la tecnología, las sociedades humanas articulan sus esperanzas, sueños y deseos, mientras crean instrumentos materiales para cumplirlos”. En este sentido, las decisiones tecnológicas están siempre conectadas con nuestra comprensión de la buena vida, nuestro sistema de valores e imaginarios colectivos. Aún más, las decisiones tecnológicas también son intrínsecamente políticas. Como también dice Jasanoff: “estas ordenan a la sociedad, distribuye los beneficios y males, y canaliza el poder”.

No obstante, muchas veces los discursos sobre innovación omiten esta dimensión ética y cultural. Incluso se toma la reflexividad como antagonista a la innovación, como un obstáculo. Ya icónico es el antiguo lema interno de Facebook que nos decía “Muévete rápido y rompe cosas” (Move fast and break things). En la época actual, se suele hablar de la innovación como un imperativo absoluto, una carrera constante, organizado desde un sentido casi persecutorio; si no estás quebrando cosas es porque vas muy lento.

Paradójicamente hablamos de la innovación, particularmente de la tecnológica, como algo que está fuera del campo de la acción humana. Es decir, algo que no podemos gobernar socialmente. Sheila Jasanoff resume los problemas en cómo hablamos de la innovación en tres principales falacias.

1. La falacia del determinismo tecnológico. El determinismo tecnológico plantea que la tecnología se gobierna sola, que no puede ser afectada desde la toma de decisión. Por ejemplo, se suele escuchar la frase “se viene la automatización” o “está llegando la digitalización” como si la automatización o la digitalización fuesen tecnologías que avanzan solas. Esto es ostensiblemente falso, ya sea por la observación natural que si una tecnología es difundida en un grupo social, es porque se decidió financiarla, permitirla y adoptarla. Hay tecnologías que en algunos países prosperan y en otros se rechazan. Por ejemplo, Francia es extremadamente abierta a la energía nuclear, mientras que Alemania, su vecino directo, es mucho más adverso.

2. La falacia de la tecnocracia. La tecnocracia propone que la innovación puede ser gobernada, pero ha de serlo por la gente que sabe lo que hace: los expertos. Es decir, debemos dejar que los expertos definan cuando una tecnología es apropiada, para quién y cómo. No obstante, ¿qué expertos debiésemos consultar? ¿quién es un experto y quién es un charlatán? ¿quién los elige? La pregunta por la experticia es un debate amplio que no resulta fácil de abordar. ¿No podríamos incluso decir que la gente es “experta” en su propia experiencia? Por sobre todo, si los cambios tecnológicos co-construyen cambios sociales, y a su vez, nos proponen la “buena vida”, la vida que debiésemos querer: ¿No es acaso eso algo sobre lo que todos deberíamos opinar? Por ejemplo, como dice el académico Jack Stilgoe en su libro Who’s Driving Innovation? sobre el caso de la muerte de Elaine: “ella no sabía que formaba parte de un experimento”.

3. La falacia del lenguaje de las consecuencias no intencionadas. El lenguaje de las consecuencias no intencionadas invita a pensar que no es ni productivo, ni necesario estar anticipando reflexivamente qué podría salir mal, eso sólo nos enlentecería. Es decir, esta falacia implica sugerir que no nos preocupemos tanto, porque así es la innovación, todo tiene cosas buenas y cosas malas, y equivocarse es parte del camino. Sin embargo, también genera una paradoja atribucional; cuando la invención es exitosa, es por mis bondades, pero cuando fracasa no es mi culpa. De cualquier manera, sí podemos hacer esfuerzos en anticipar un resultado. De hecho, la Unión Europea y Estados Unidos promueven crecientemente la idea de Investigación e Innovación Responsable, que se centra en anticipar, reflexionar y hacer participar antes de desarrollar grandes proyectos innovadores.

Más allá de estas tres falacias, nuestros discursos de innovación también corren el riesgo de afectar negativamente nuestras prioridades. En su libro The Innovation Delusion, los académicos Lee Vinsel y Andrew Russel ponen atención en el énfasis que damos a lo nuevo y brillante en perjuicio de aquello que hace funcionar nuestras vidas; la mantención. Mantener el mundo, cuidar de la infraestructura y cosas que tenemos es central para vivir bien. Necesitamos que los puentes funcionen, que los postes no se caigan, que las calles no se rompan, que nuestras casas estén ordenadas, que la vida sea segura. Pero mantener y cuidar suele no recibir la misma atención o glamour que su prima la innovación. Y eso es algo que debiera llamarnos la atención. Muchas veces es mejor reparar el zapato, a comprarse uno nuevo.

En último término, estos apuntes son una invitación a pensar la innovación más humanamente, desde su complejidad cultural y ética. Adoptar una mirada reflexiva de la innovación no es sólo la tendencia de los países desarrollados, sino también una oportunidad para hacer de la innovación un proyecto más interesante. Pensar la innovación más humanamente, es colaborar más, es escuchar a los usuarios, es hacer interdisciplina, es pensar en el impacto social y ambiental, es actuar más humildemente. Pero la humildad, como dice Jasanoff, no es una actitud, sino un método disciplinado que debemos aprender.

Herramientas para una innovación más humana

Por eso, es importante aprender métodos y aproximaciones que nos permitan hacer innovaciones de alto impacto, pero que incorporen la dimensión cultural, comportamental y ética. Innovar humanamente, es una forma de incrementar el impacto positivo de nuestras ideas y mitigar sus perjuicios. Es una forma de anticipar y entender el comportamiento humano y medioambiental para hacer mejores soluciones, más robustas y significativas.

En el Diplomado en Diseño y gestión de soluciones Innovadoras (D-IDI), los estudiantes aprenden a usar herramientas del diseño para contextualizar y caracterizar requerimientos de los usuarios, identificar oportunidades y proponer soluciones innovadoras. Así, los estudiantes desarrollan una visión crítica sobre el proceso de diseño, reconociendo su potencial y sus limitaciones. Involucramos áreas como tecnologías de fabricación, visualización de datos, prototipado e investigación cualitativa. Como consecuencia, los estudiantes aprenden a gestionar de forma exitosa un proceso de diseño, desde la identificación de una oportunidad hasta el desarrollo de las ideas de solución.

Te invitamos a conocer el Diplomado en Diseño y gestión de soluciones innovadoras, ingresa aquí.