Por Levy Farías
Al explicar su enfoque del desarrollo moral, Lawrence Kohlberg solía contrastar los principios morales con los mandamientos morales. Creo que, si todavía estuviera entre nosotros, ahora también estaría contrastando a los principios morales con el creciente uso de lo que podríamos llamar “software moral”: procesos de toma de decisiones, con implicaciones morales, en los cuales los mecanismos cibernéticos reemplazan o superan por mucho a las valoraciones humanas. Por supuesto, tan solo podemos especular sobre las muchas ideas novedosas que el Profesor Larry nos seguiría brindando, pero cualquier lector puede comparar lo que él escribió sobre las limitaciones de los rígidos y simplistas mandamientos morales, con las notorias limitaciones de las diversas herramientas de software moral que proliferan hoy día.
Consideremos, por ejemplo, los presuntos casos de plagio que han involucrado recientemente a varios de los más importantes políticos españoles [i]. En uno de esos casos, el acusado se defendió con los resultados numéricos de algunas herramientas antiplagio aplicadas a su cuestionada tesis doctoral. Es decir, proporcionó pruebas supuestamente imparciales, automatizadas y rigurosas de su inocencia. Pero esa defensa no sirvió de mucho, pues el representante de una de las compañías involucradas rápidamente planteó dudas y aclaró que su producto todavía requiere una buena dosis de interpretación experta o humana [ii].
Por otra parte, si usted necesita escribir una tesis o trabajo de fin de curso para una universidad española, en los anuncios clasificados encontrará un buen número de compañías y tutores independientes, o escritores a sueldo, que ofrecen escribirla por usted en cuestión de días, sobre cualquier tema concebible y con cualquier método o diseño de investigación que usted pueda requerir… ¡todo ello más un control de calidad antiplagio! De manera que, si usted está dispuesto a pagar sus tarifas y ellos realmente cumplen con lo que ofrecen, usted puede hacer trampa sin ningún riesgo de ser detectado por las herramientas de software antiplagio porque su tesis será alguna clase de plagio “original”, de primera mano, o recién salido del horno. Por supuesto, a usted no le corresponderá ningún mérito en verdad, pero si vamos a ser gobernados por las simplistas, rápidas y frías reglas de la inteligencia artificial, más que por la juiciosa aplicación de pensamiento de alto nivel a problemas complejos, ¿a quién le importa?
Otro asunto digno de reflexión es la evaluación de los profesores universitarios españoles. En un litigio reciente que llegó hasta la Corte Suprema de Justicia [iii], los jueces fallaron a favor de una investigadora cuyos artículos publicados habían sido desestimados por la ANECA (la agencia gubernamental a cargo de la calidad académica de las universidades) sin leerlos. Lo que sucede es que las evaluaciones de la ANECA están basadas primordialmente en los Factores de Impacto de los Journals en los que usted haya publicado sus textos. Y ya que ese impacto ha sido convenientemente cuantificado a través de las tecnologías digitales actuales, la ANECA acatará el fallo de la Corte en ese caso particular y según parece en otros pocos [iv], pero de resto, como fervientes seguidores del dataísmo [v], seguirán evaluando el trabajo académico reduciendo, tanto como sea posible, el rol de las valoraciones humanas. El solo número de citas dirá la verdad “y nada más que la verdad”.
¿Llegará el día en que la gente pueda ser encarcelada preventivamente a causa de algún coeficiente de propensión al delito, calculado por el último avance en materia de software? ¿Vamos rumbo a alguna especie de reedición en la vida real de la película Sentencia Previa [vi]? Es decir, si sus contribuciones académicas pueden ser discriminadas o desestimadas sin leerlas, ¿por qué no puede su comportamiento ser igualmente discriminado, castigado —o prevenido— sin necesidad de complejas evaluaciones sobre su carácter y motivaciones, o sobre las, a menudo dudosas, evidencias disponibles?
Alimentando al software con las bases de datos apropiadas en cuanto a crímenes cometidos por personas de su misma clase social, género, rango de edad, etnicidad, religión, ideología política, hábitos de consumo y… quizás hasta sus últimas búsquedas en Google o publicaciones en Facebook, seguramente será posible diseñar algún algoritmo para determinar si usted es inocente o culpable —o si será culpable en un futuro próximo—, con algún pequeño margen de error, pero de un modo increíblemente más rápido y barato que nuestros actuales sistemas judiciales.
¿Estoy rotundamente equivocado? ¿Estoy exagerando las razones para preocuparnos? Quizás. No soy ningún experto en inteligencia artificial, big data, redes neuronales, ni ningún otro sistema de conocimiento en boga. No me fío de las herramientas de autocorrección de los procesadores de palabras e inmediatamente desconfío de las personas o aparatos que pretenden ser más “listos” que todos los demás. Aún peor, se podría decir que tengo un interés creado en estos temas, porque mucho me temo que la ANECA pronto pueda desestimar ciegamente mi modesta trayectoria académica en un contexto universitario distinto, sudamericano, para más señas.
En cualquier caso, lo que estoy planteando es tan solo esto: Necesitamos trabajar tanto como sea humanamente posible en pro de los principios morales, los ideales morales, la promoción de las virtudes morales y cívicas o la ética, antes de que la eventual fusión de algunas gigantescas corporaciones tecnológicas pueda llegar a la conclusión de que la neuroarquitectura y las capacidades de procesamiento de datos de la gente común son demasiado primitivas y obsoletas para seguir creyendo en la democracia como la mejor forma posible de gobierno. Y al decir “necesitamos” me refiero a todos aquellos que creen en la justicia y en la libertad, pero muy especialmente, a todos los profesionales que forman parte de la Asociación por la Educación Moral.
Referencias:
[i] Mesa, J. (2018, 14 September). España: El escándalo de los títulos falsos de los políticos. El Espectador. Retrieved from https://www.elespectador.com/noticias/el-mundo/espana-el-escandalo-de-los-titulos-falsos-de-los-politicos-articulo-812287
[ii] Europa Press (2018, 18 September). Una de las empresas antiplagio usadas en la tesis de Sánchez rebate a Moncloa: halla un 21% de contenido duplicado. 20 minutos. Retrieved from https://www.20minutos.es/noticia/3442734/0/tesis-pedro-sanchez-plagscan-empresas-antiplagio-moncloa-detecta-contenido-duplicado/
[iii] Aunión, J.A. (2018, 18 September). La justicia obliga a leer los trabajos para acreditar los méritos de investigación en la Universidad. El Supremo da la razón a una profesora y dice que no basta con tener en cuenta la revista en la que se publican los estudios. El País. Retrieved from https://elpais.com/sociedad/2018/09/18/actualidad/1537270842_896963.html
[iv] Idem.
[v] Harari, Y. N. (2016, 1st September), ‘Homo Sapiens is an obsolete algorithm’: Yuval Noah Harari on how data could eat the world. Wired. Retrieved from https://www.wired.co.uk/article/yuval-noah-harari-dataism
[vi] See https://www.imdb.com/title/tt0181689/. – Levy Farías
Fuente: https://www.amenetwork.org/opinion/moral-software-spain