Existe un amplio consenso respecto a que el avance de la inteligencia artificial (IA) es imposible de detener. El proceso es veloz y ni los pronósticos más conspirativos ni la certeza de que los propios impulsores de este tipo de tecnologías desconocen las consecuencias de sus desarrollos, son capaces de frenar una marcha que parece inexorable.
De aquí que las discusiones se posen, en todo caso, en el cómo y el hacia dónde, y que en el marco de las mismas se abra una serie gigantesca de interrogantes que incluye repensar qué es lo humano y cómo serán los humanos del futuro.
Un aporte en este sentido es el nuevo libro de Adela Cortina, ¿Ética o ideología de la inteligencia artificial?, publicado por Paidós, texto en el que, desde su clásico posicionamiento, el universalismo cosmopolita kantiano y la ética del discurso de Habermas, la filósofa aporta categorías desde la cual reflexionar y establecer criterios básicos para futuras regulaciones en materia de IA.
Son varias las preguntas que Cortina realiza a lo largo del libro y, si partimos de la más básica, deberíamos comenzar interrogándonos acerca de qué entendemos cuando hablamos de la necesidad de una ética de la IA. ¿Se trata de pensar qué tipo de valores morales deberían tener las máquinas en el hipotético caso de que éstas pudieran poseerlos o más bien nos referimos a cuál debería ser la ética con la que los seres humanos deberíamos servirnos de la IA? Tal distinción no es para nada menor, por cierto, pero muchas veces las dos preguntas se confunden.
Un segundo interrogante refiere a si vamos a adoptar estos sistemas inteligentes como instrumentos o como sustitutos de los seres humanos. Esta pregunta es central para el mundo del trabajo, pero incluso también para el espacio de nuestras relaciones con «los otros» en un contexto en el que, pospandemia, han crecido exponencialmente los casos de seres humanos que intentan suplir los vacíos de la soledad relacionándose con máquinas, bots y algoritmos.
Algoritmos y libertad
Profundizando algo más en el terreno filosófico, Cortina también pretende advertir acerca de esta suerte de aceptación acrítica que tenemos de la «determinación algorítmica». ¿Qué lugar queda para la libertad en un mundo gobernado por una matemática indescifrable y unos criterios opacos? Un ingeniero programa un algoritmo de modo tal que ni él mismo puede explicar las decisiones que éste adopta y los usuarios nos resignamos a esta supuesta superioridad «matemática» o «científica». Abundan, en este sentido, ejemplos de fantasías tecnocráticas donde hasta hay quienes se imaginan computadoras gobernando países de manera «neutral» o, para no irnos tan lejos, empresas que ya están usando algoritmos para seleccionar su personal.
Otro aspecto central de la discusión actual, la cual nos remite a los debates de las últimas décadas en torno al estatus jurídico de los animales y las acusaciones de especismo para cualquiera que plantee algún diferencial propio de lo humano, gira en torno al lugar de las máquinas. ¿Qué sucedería si las máquinas tuvieran conciencia, sentido moral y autoconciencia? ¿Y si pudieran sufrir? ¿Deberíamos considerarlas «personas no humanas/no biológicas»? Si ese fuera el caso, ¿parte de sus derechos y responsabilidades implicarían que formen parte de la comunidad política pudiendo votar u ocupar cargos públicos? Hemos conocido caballos senadores y políticos que responden a la prensa como robots, pero reconozcamos que no es fácil imaginarlo, aunque puede que no estemos tan lejos. De hecho, Cortina menciona el antecedente de Michihito Matsuda, el androide que, en 2018, se presentara a las elecciones en Tama, un distrito de Tokio que cuenta con 150.000 habitantes, y obtuviera el tercer puesto con más de 4.000 votos, a menos de 400 votos del segundo. Matsuda prometía acabar con la corrupción y dar oportunidades justas y equilibradas como hacen todos los políticos, por cierto.
Este punto es por demás interesante y nos lleva a otro de los interrogantes que plantea Cortina: ¿aun en el caso de que fuera posible que las máquinas adoptaran una ética, qué tipo de ética sería? ¿No es demasiado ingenua la idea de que una inteligencia no humana se sirva de la matemática para establecer criterios justos cuando, justamente, no existe acuerdo acerca de qué es y qué no es justo? Por ejemplo: ¿se debe redistribuir la riqueza? ¿Cuánto? ¿Es correcto que algunos tengan más que otros y que exista gente pobre? ¿Acaso todos deben ganar y tener lo mismo? ¿Cómo programar algoritmos de derecha y de izquierda cuando ya nadie sabe qué es de derecha y de izquierda?
Como les indicaba al principio, fiel a su pensamiento kantiano, Cortina se opone a todo tipo de lógica instrumental, defendiendo la dignidad y la autonomía de los seres humanos como un diferencial. Esto supone distinguirlos de las máquinas, pero también, para horror de los animalistas, separarlos de los animales, los cuales tienen un valor, pero no alcanzan el mismo estatus que un humano por las mismas razones que ya expuso Kant y que establecían las características únicas de la racionalidad humana.
Ideología y ciencia
Luego acusa al transhumanismo, con su promesa de utilización de la tecnología para transformar y «superar» la especie humana, de estar guiado más por un tipo particular de ideología individualista que por razones científicas, estableciendo una distinción tajante entre ideología y ciencia que es, como mínimo, discutible y que pasa por alto que muchas de las aplicaciones de la tecnología sobre la vida humana no son meras especulaciones, sino que ya ofrecen resultados concretos.
Por último, siempre desde su ética dialógica, arremete contra el wokismo por su tribalización y su cultura de la victimización, aspectos que promueven una ruptura en la comunidad de hablantes, y contra aquellos que refieren a la posibilidad de una autonomización total de la IA y confunden una «autonomía de funciones» con una «autonomía ontológica» como la que posee todo ser humano en tanto tal:
«La diferencia esencial es que los seres humanos pueden reflexionar sobre su conducta (…) y entablar un diálogo con gentes cercanas a través del que pueden descubrir los móviles de su acción en el intercambio de argumentos. Con las máquinas es imposible (…) La atribución de responsabilidad exigiría que pudieran actuar según el deber y por mor del deber, cosa que no pueden hacer porque carecen de autonomía, voluntad libre y conciencia».
Valores universales
Además, los algoritmos no tienen libre albedrío ni entienden lo que dicen. El ChatGPT, o cualquiera de los instrumentos que se utilizan cada vez más, incluso para consultas complejas o hasta para elaborar textos y pedir ayuda con ideas, no entienden lo que producen: solo usan modelos de lenguaje que calculan las probabilidades de que después de una palabra venga otra y nada más. ¿Se les pueden insertar valores morales? Sí, claro, pero estos serían los valores que desean sus ingenieros y no unos valores propios de una suerte de moralidad autónoma de las máquinas.
En síntesis, ¿Ética o ideología de la inteligencia artificial?, toma posición sobre buena parte de los dilemas urgentes que enfrentan gobiernos, ingenieros y propulsores del avance tecnológico advirtiendo sobre la necesidad de recuperar valores universales y una discusión pública de reconocimiento intersubjetivo donde la verdad y la veracidad resultan centrales en tiempos de posverdad y bulos. Naturalmente, quienes no comulgan con los presupuestos de esta tradición cosmopolita inaugurada por Kant hace ya más de 200 años, tendrán objeciones atendibles para realizar y probablemente respondan de otra manera a las preguntas realizadas por Cortina.
Sin embargo, el solo hecho de plantear esas preguntas con la precisión técnica y analítica de Cortina, es ya una buena razón para leer el libro.
Existe un amplio consenso respecto a que el avance de la inteligencia artificial (IA) es imposible de detener. El proceso es veloz y ni los pronósticos
Existe un amplio consenso respecto a que el avance de la inteligencia artificial (IA) es imposible de detener. El proceso es veloz y ni los pronósticos más conspirativos ni la certeza de que los propios impulsores de este tipo de tecnologías desconocen las consecuencias de sus desarrollos, son capaces de frenar una marcha que parece inexorable.
De aquí que las discusiones se posen, en todo caso, en el cómo y el hacia dónde, y que en el marco de las mismas se abra una serie gigantesca de interrogantes que incluye repensar qué es lo humano y cómo serán los humanos del futuro.
Un aporte en este sentido es el nuevo libro de Adela Cortina, ¿Ética o ideología de la inteligencia artificial?, publicado por Paidós, texto en el que, desde su clásico posicionamiento, el universalismo cosmopolita kantiano y la ética del discurso de Habermas, la filósofa aporta categorías desde la cual reflexionar y establecer criterios básicos para futuras regulaciones en materia de IA.
Son varias las preguntas que Cortina realiza a lo largo del libro y, si partimos de la más básica, deberíamos comenzar interrogándonos acerca de qué entendemos cuando hablamos de la necesidad de una ética de la IA. ¿Se trata de pensar qué tipo de valores morales deberían tener las máquinas en el hipotético caso de que éstas pudieran poseerlos o más bien nos referimos a cuál debería ser la ética con la que los seres humanos deberíamos servirnos de la IA? Tal distinción no es para nada menor, por cierto, pero muchas veces las dos preguntas se confunden.
Un segundo interrogante refiere a si vamos a adoptar estos sistemas inteligentes como instrumentos o como sustitutos de los seres humanos. Esta pregunta es central para el mundo del trabajo, pero incluso también para el espacio de nuestras relaciones con «los otros» en un contexto en el que, pospandemia, han crecido exponencialmente los casos de seres humanos que intentan suplir los vacíos de la soledad relacionándose con máquinas, bots y algoritmos.
Profundizando algo más en el terreno filosófico, Cortina también pretende advertir acerca de esta suerte de aceptación acrítica que tenemos de la «determinación algorítmica». ¿Qué lugar queda para la libertad en un mundo gobernado por una matemática indescifrable y unos criterios opacos? Un ingeniero programa un algoritmo de modo tal que ni él mismo puede explicar las decisiones que éste adopta y los usuarios nos resignamos a esta supuesta superioridad «matemática» o «científica». Abundan, en este sentido, ejemplos de fantasías tecnocráticas donde hasta hay quienes se imaginan computadoras gobernando países de manera «neutral» o, para no irnos tan lejos, empresas que ya están usando algoritmos para seleccionar su personal.
Otro aspecto central de la discusión actual, la cual nos remite a los debates de las últimas décadas en torno al estatus jurídico de los animales y las acusaciones de especismo para cualquiera que plantee algún diferencial propio de lo humano, gira en torno al lugar de las máquinas. ¿Qué sucedería si las máquinas tuvieran conciencia, sentido moral y autoconciencia? ¿Y si pudieran sufrir? ¿Deberíamos considerarlas «personas no humanas/no biológicas»? Si ese fuera el caso, ¿parte de sus derechos y responsabilidades implicarían que formen parte de la comunidad política pudiendo votar u ocupar cargos públicos? Hemos conocido caballos senadores y políticos que responden a la prensa como robots, pero reconozcamos que no es fácil imaginarlo, aunque puede que no estemos tan lejos. De hecho, Cortina menciona el antecedente de Michihito Matsuda, el androide que, en 2018, se presentara a las elecciones en Tama, un distrito de Tokio que cuenta con 150.000 habitantes, y obtuviera el tercer puesto con más de 4.000 votos, a menos de 400 votos del segundo. Matsuda prometía acabar con la corrupción y dar oportunidades justas y equilibradas como hacen todos los políticos, por cierto.
Este punto es por demás interesante y nos lleva a otro de los interrogantes que plantea Cortina: ¿aun en el caso de que fuera posible que las máquinas adoptaran una ética, qué tipo de ética sería? ¿No es demasiado ingenua la idea de que una inteligencia no humana se sirva de la matemática para establecer criterios justos cuando, justamente, no existe acuerdo acerca de qué es y qué no es justo? Por ejemplo: ¿se debe redistribuir la riqueza? ¿Cuánto? ¿Es correcto que algunos tengan más que otros y que exista gente pobre? ¿Acaso todos deben ganar y tener lo mismo? ¿Cómo programar algoritmos de derecha y de izquierda cuando ya nadie sabe qué es de derecha y de izquierda?
Como les indicaba al principio, fiel a su pensamiento kantiano, Cortina se opone a todo tipo de lógica instrumental, defendiendo la dignidad y la autonomía de los seres humanos como un diferencial. Esto supone distinguirlos de las máquinas, pero también, para horror de los animalistas, separarlos de los animales, los cuales tienen un valor, pero no alcanzan el mismo estatus que un humano por las mismas razones que ya expuso Kant y que establecían las características únicas de la racionalidad humana.
Luego acusa al transhumanismo, con su promesa de utilización de la tecnología para transformar y «superar» la especie humana, de estar guiado más por un tipo particular de ideología individualista que por razones científicas, estableciendo una distinción tajante entre ideología y ciencia que es, como mínimo, discutible y que pasa por alto que muchas de las aplicaciones de la tecnología sobre la vida humana no son meras especulaciones, sino que ya ofrecen resultados concretos.
Por último, siempre desde su ética dialógica, arremete contra el wokismo por su tribalización y su cultura de la victimización, aspectos que promueven una ruptura en la comunidad de hablantes, y contra aquellos que refieren a la posibilidad de una autonomización total de la IA y confunden una «autonomía de funciones» con una «autonomía ontológica» como la que posee todo ser humano en tanto tal:
«La diferencia esencial es que los seres humanos pueden reflexionar sobre su conducta (…) y entablar un diálogo con gentes cercanas a través del que pueden descubrir los móviles de su acción en el intercambio de argumentos. Con las máquinas es imposible (…) La atribución de responsabilidad exigiría que pudieran actuar según el deber y por mor del deber, cosa que no pueden hacer porque carecen de autonomía, voluntad libre y conciencia».
Además, los algoritmos no tienen libre albedrío ni entienden lo que dicen. El ChatGPT, o cualquiera de los instrumentos que se utilizan cada vez más, incluso para consultas complejas o hasta para elaborar textos y pedir ayuda con ideas, no entienden lo que producen: solo usan modelos de lenguaje que calculan las probabilidades de que después de una palabra venga otra y nada más. ¿Se les pueden insertar valores morales? Sí, claro, pero estos serían los valores que desean sus ingenieros y no unos valores propios de una suerte de moralidad autónoma de las máquinas.
En síntesis, ¿Ética o ideología de la inteligencia artificial?, toma posición sobre buena parte de los dilemas urgentes que enfrentan gobiernos, ingenieros y propulsores del avance tecnológico advirtiendo sobre la necesidad de recuperar valores universales y una discusión pública de reconocimiento intersubjetivo donde la verdad y la veracidad resultan centrales en tiempos de posverdad y bulos. Naturalmente, quienes no comulgan con los presupuestos de esta tradición cosmopolita inaugurada por Kant hace ya más de 200 años, tendrán objeciones atendibles para realizar y probablemente respondan de otra manera a las preguntas realizadas por Cortina.
Sin embargo, el solo hecho de plantear esas preguntas con la precisión técnica y analítica de Cortina, es ya una buena razón para leer el libro.
Noticias de Cultura: Última hora de hoy en THE OBJECTIVE