¿MORALMENTE AMORAL?
Si tengo que recordar una de las pocas definiciones que aprendí en aquellos lejanos años en el colegio, fue la definición de “Moral” que me había enseñado una vieja profesora. La materia que daba tenía muy poco que ver con el contenido que nos enseñaba. Y si me apuras te diría que no recuerdo absolutamente nada de esas clases.
De hecho, creo que aprendí mucho sobre las pinturas del salón, y cada tanto, pispeaba la ventana.
Ahora, como dije recién, utilizaba una definición curiosa de la Moral: “Tender a la vida buena a través de instituciones justas”.
Por supuesto, si estás hilando, la persona en cuestión tenía una tendencia bastante religiosa sobre la palabra. Pero no hay duda de que me vino como anillo al dedo para escribir una nota. Vos fijate que escribí 3 párrafos sobre una anécdota, y vos todavía no sabes que tiene que ver ésto con los autos. Excelente, era mi distracción mientras trataba de conectar la relación que es….. emm…. ah si!
La “Moral” como concepto viene acompañado de la “Ética”, y podríamos decir que se deconstruye como normas no escritas, quizás hasta sociales, que buscan establecer un marco de comportamiento que se conoce, colectivamente, como “Bueno”.
Sin pensar demasiado, la definicion que se describía en mi anécdota, está plagada de subjetividad.
Si a mí me preguntas que es una “vida buena” podría ser tener la Nintendo Switch jugando al Zelda. Quizás sería poco ortodoxo, o quizás descuide mi trabajo…. pero que juegazos!!!
Em...volviendo. Si aplicás a tu vida cotidiana, desde tu visión “vida buena” podría ser muy variada y se adaptaría a lo que vos crees personalmente que es “bueno”.
Ahora, ahí es donde necesitamos la definición de “colectivo” de la moral y la ética.
Algo es “bueno” cuando así lo entiende tu grupo familiar, tu barrio, tu localidad, tu ciudad, EL MUNDO (pero sin conquistarlo en este caso).
Si al final de toda ésta reflexión todavía seguís leyendo sin dormirte, entonces vas a poder entender qué tiene que ver ésto con un auto en el cielo XD.
AUTOBOTS, ¡TRANSFORMENSE!
Bueno, ahora imaginemos que al abrir la puerta tenemos en nuestro garage (no importa si no lo tenés, estás imaginando, dale ponele onda al ejemplo!) un Auto con la tecnología
suficiente para que tenga razonamiento propio.
Si, estamos hablando de Inteligencia Artificial, implementada en un objeto cotidiano. Pero no te detengas ahí, vamos a abrirlo. Es un Ferrari rojo…. bueno cada uno usa su imaginación como quiere, escribí tu nota si no te gusta XD.
Encendelo, y pedile ir a donde quieras (vamos a comer unas hamburguesas, dale no seas rata).
Ahora que estamos en ruta, como te imaginarás, la tecnología que está utilizando permite que vos no necesites tener el control activo del auto. El sistema operativo que opera el vehículo tiene la capacidad de procesar y entender el ambiente en que se maneja.. Pues claro! es Inteligencia Artificial, así que no necesitamos más que recostarnos y disfrutar.
Pero... ¡ALERTA PERMANENTE! Nunca se sabe cuando el vehículo puede necesitarnos. No olvidemos que la Autonomía aún no se desarrolló plenamente.
De repente estamos por llegar a una calle cortada en el carril derecho. Parece que están trabajando, por lo que el auto tiene que realizar una maniobra para poder continuar.
Pero en el momento en que cambia del carril derecho al carril izquierdo para poder evadir la obra, vemos que una señora mayor está cruzando la calle. Si, parece que no eligió cumplir con las normas de seguridad cruzando por la esquina.
¿Qué va a hacer el auto?
De repente, toda la perorata sobre Moral y ética te va a parecer útil. ¿A quién debe salvar? ¿Al conductor, a la señora mayor, o a los obreros que están trabajando en la esquina del carril derecho?
TU ROBOT TAMBIEN LLORA
Ésta es verdaderamente la discusión que se está llevando adelante en el seno de los programadores. Y aquellas empresas dedicadas a la investigación de la Robótica en general, y de los autos en particular, que no lo esté haciendo, ya tienen una sugerencia primaria: ¿Cómo debe comportarse el robot ante ciertas situaciones que necesitan indefectiblemente de una moral especial?
No es el mismo comportamiento que debe tener un Robot-Automóvil destinado a transportar bomberos en emergencia, que un vehículo de transporte particular.
El caso de la Tecnología de inteligencia artificial en autos, creemos, es el caso más ejemplificativo de la necesidad de desarrollar correctamente el código de ética y las “normas” mínimas de moral.
Y si, como dije antes, se necesita siempre de una “moral especial”. Es que, cada grupo social, cada país, cada cultura y cada objeto tiene conceptos diferentes de comportamiento. Y esto se ve tanto en el trato cotidiano, como en la forma de manejo. Cuando dejar pasar a un auto, cuando dejar pasar a otra persona, cuando darle prioridad a una situación de emergencia y cuando no.
Hace poco tiempo, Waymo, la compañía de Google dedicada a la Inteligencia Artificial en Automóviles, publicó sus investigaciones sobre los comportamientos ante vehículos de emergencia como ambulancias
¿Por qué debemos enseñar éstos estímulos a un vehículo?
Primero, pues si piensa reemplazarnos, debe conocer las normas no escritas de la calle. Un auto autónomo, como el que venimos a describir, puede identificar cuando hay en la esquina un peatón, por lo cual disminuirá la velocidad. También podrá identificar la señales de tránsito y respetarlas lo más cercano a la realidad.
Pero, si un vehículo de emergencia como una ambulancia necesita pasar, y el vehículo no tiene la capacidad de respuesta pese a encontrarse el semáforo en rojo, permitiéndole el paso, estaría cometiendo una conducta moralmente reprochable (normativamente también, pero centrémonos en el fin de la nota).
El Segundo punto, pero no por eso menos importante, es la Responsabilidad. Si el Robot-Automóvil al tomar una decisión lastima o mata a una persona o a un edificio, debe responder. Por supuesto, lo primero que pensaríamos es responsabilizar al Dueño. Pero, si el dueño del auto no tomó la decisión, lo segundo que pensaremos es en apuntar a la Empresa que le vendió el Robot, pues es éste quien se encargó de programar las respuestas y decisiones que debían realizar.
APRENDIENDO LO BUENO
Existen páginas web que emplean sistemas de “machine learning” para tratar de construir una nocion etica. ¿Cómo sería ésto? La página propone supuestos en donde el automóvil debe realizar distintos tipos de virajes. Siempre, en cada decisión, va a haber un daño
colateral. Sea lastimar al conductor, a un grupo de peatones, a alguna casa, etc. E incluso, opciones entre un peatón mayor de edad, un peatón menor de edad, una pareja, etc, y el usuario, debe seleccionar aquella opcion que cree correcta.
De ésta manera, se pretende obtener respuestas que puedan enseñarle a la máquina que tomará el volante como debe actuar ante situaciones que merecen obtener el menor índice de daño posible.
Por eso, cuando pienses “que anticuado que es la moral y la ética”... quizás tengas razón, pero un día, cuando tu tostadora te charle por la mañana, puede ser la definición entre un pan delicioso, y un pésimo día.