Revista del IEEM
TOP

¿La IA podría ser deshonesta?

La reciente película Oppenheimer ha recordado algo inquietante: que, hace 80 años, cuando J. Robert Oppenheimer dirigió el trabajo para las primeras armas de destrucción masiva, nadie había visto nunca una bomba destruir ciudades enteras. Después de que esto ocurrió, Oppenheimer comenzó a trabajar para reducir la amenaza de un daño planetario. Obviamente, era tarde. Utilizó su posición y prestigio para insistir en el control internacional del poder nuclear, evitar la proliferación de armamento nuclear y frenar la carrera armamentística entre las dos superpotencias. Lo hizo con tanta vehemencia que le acabaron retirando sus pases de seguridad y el acceso a documentos militares.

Actualmente, ante el futuro polémico de la IA ¿es posible evitar el error de Oppenheimer? ¿Es exagerado comparar las armas de destrucción masiva con la IA? Evidentemente, hay diferencias iniciales notables: las armas son destructivas y desplegadas por Estados-nación. La IA, en principio, tiene fines constructivos y desarrollada por privados. La IA y, concretamente la inteligencia artificial fuerte o IAF —también conocida como inteligencia artificial generativa o IAG— iguala y excederá la inteligencia humana promedio, imitando la memoria, la lógica y el razonamiento a velocidades de milisegundos.

Pero quizá no es aventurado plantear la posibilidad de que la IA podría desviarse de forma deshonesta a escala incluso mayor que la de las armas de destrucción masiva. ¿Por qué? Porque la IA puede amplificar a gran velocidad no solo lo bueno, sino también lo malo en los humanos a gran velocidad. Esto nos lleva a plantear la necesidad de regular, no de prohibir. Pero ¿quién regulará lo suficientemente bien antes de que sea demasiado tarde?

Actualmente, ante el futuro polémico de la IA ¿es posible evitar el error de Oppenheimer? ¿Es exagerado comparar las armas de destrucción masiva con la IA?

En febrero de 2020 la Pontificia Academia de la Vida dedicó su Asamblea anual en el Vaticano para reflexionar sobre la Inteligencia Artificial en tres ámbitos: ética, derecho y salud, con el fin de que la ética de la IA ponga la dignidad de los humanos en primer lugar. Se clausuró el encuentro con la firma del “Llamado de Roma por la Ética de la Inteligencia Artificial” (Rome Call for AI Ethics). Participaron de la firma de este documento, aprobado por el papa Francisco, la Academia Pontificia para la Vida, Microsoft, IBM, la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) y el gobierno italiano. El texto se puede consultar en el sitio web del Vaticano.

Posteriormente, IBM y Microsoft introdujeron modificaciones en sus respectivos equipos de IA ética que traicionaban el espíritu de los compromisos firmados. Recientemente, y debido a algunas reacciones de protesta, ambas empresas están procurando volver tímidamente a lo firmado en 2020. El “Llamado de Roma” no se basó en una corazonada sentimental sobre la extralimitación tecnológica, sino en la convicción de que la tecnología, esclavizada por sí misma, no solo por sus herramientas, puede poner —y de hecho está poniendo— a la humanidad, a la persona humana, en último lugar.

El mismo Bill Gates llegó a decir: “Los humanos también cometen errores. ¿Qué pasa si entran en conflicto con los intereses de la humanidad? ¿Deberíamos prevenir una IA fuerte?… Estas preguntas se volverán más apremiantes con el tiempo”.

A finales de julio, el gobierno de los Estados Unidos llegó a unos acuerdos con Microsoft, Alphabet, Meta Platforms, Amazon, Anthropic, Inflection y OpenAI. Se logró consenso en tres puntos: revelar qué contenidos son generados con inteligencia artificial, transparencia de resultados y garantías de seguridad. En agosto la Santa Sede informó que el papa hablará de inteligencia artificial en su mensaje para la próxima Jornada Mundial de la Paz.

Por otra parte, la IA no se está expandiendo: está explotando. En el siglo XXI, la investigación en IA creció un 600 %. Si no admitimos que, a pesar de nuestras buenas intenciones, somos imperfectos, seguiremos acelerados y, a no ser que incorporemos rápidamente algunos “cortafuegos” o alertas, la IA deshonesta es una cuestión de “cuándo”, no de “si”.

La IA no se está expandiendo: está explotando y la IA deshonesta es una cuestión de “cuándo”, no de “si”.

Esto nos lleva a examinarnos y a algunas consideraciones de nivel más personal, familiar y educativo y empresarial. Hace unas semanas con varios amigos hablamos sobre las capacidades sorprendentes de la IA y nos planteamos qué es lo que los humanos podemos hacer siempre mejor que la IA. Después de muchas vueltas y con las simplificaciones propias de un intercambio distendido, el consenso fue: amar. En su brevedad puede sonar cursi. Pero tiene sentido, ya que la IA podrá redactar poesías y frases cariñosas, pero nunca será capaz de transmitir los afectos, o al menos no lo podrá hacer con la misma vitalidad y empatía, con la que lo hacemos los seres humanos. Podrá “leer” nuestros sentimientos, pero no experimentar esa vivencia única de cariño y ternura por alguien.

Evidentemente la IA irá superando nuestras capacidades racionales, de pensamiento y de conocimientos. Incluso en varios aspectos de la creatividad. Pero no parece que pueda superarnos en las expresiones de afecto. Es una clara invitación a que seamos conscientes del gran poder que tenemos para tratar bien a los demás, a ser sensibles para no lastimar a nadie ni hacerlos sentir mal. Es la oportunidad de acrecentar el valor de la dignidad humana y de cuidar el trato respetuoso y empático. Procurando tener más desarrollada la habilidad de ponernos en el lugar del otro y a ser capaces de detectar lo que se está sintiendo a consecuencia de lo que nosotros decimos o hacemos.

En el fondo, como dijo el cardenal Ratzinger en 1980, en un discurso a la Universidad de Salzburgo, la solución del problema o, mejor dicho, la manera de enfocar la IA y otros avances está en distinguir: “Poder hacer es una cosa; poder ser es otra bien distinta. El poder hacer no sirve para nada si no sabemos para qué hemos de utilizarlo, si no nos interrogamos acerca de nuestra propia esencia y acerca de la verdad de las cosas”. Si valoramos únicamente lo que sirve para “poder hacer” algo, somos cortos de vista, porque descuidamos la meta, nuestra auténtica vocación: buscar la verdad.

Y para buscar la verdad se requiere humildad, en reconocer nuestros límites y para estar abiertos al infinito, “una apertura que no tiene nada que ver con la credulidad; exige por el contrario la autocrítica más consciente. Es mucho más abierta y crítica que la misma limitación del empírico, cuando el hombre hace de su voluntad de dominio el último criterio de conocimiento” (J. Ratzinger, Mirar a Cristo, Edicep, 2005, p. 26).

Autor

Comentarios (1)

  • Daniel

    Buen dia Carlitos, gracias por compartir este artículo. A mi juicio el enfoque predominantemente egoísta de los humanos predeterminara la evolución de la IA, siendo una nueva herramienta para la concentración del poder en cada vez menos, que digitaran el pensamiento y acciones de la mayoría de la humanidad. No veo la forma de alterar este camino desde el asesinato de Kennedy, la misteriosa muerte del Papa que vivió 33 días, el grupo Bildenbergerg, la enorme concentración en la banca, armamento, medios de comunicación, fomento de droga, deterioro de la educación, posibilidad de libertad de pensamiento y valores como la familia. Y la gran mayoría de los políticos alineados con estos objetivos. Disculpa la perolata y gracias que se aproxima setiembre donde renaceremos como en cada primavera. Fuerte abrazo.

    reply

Postear un comentario