Microsoft sacrificó sus principios éticos con tal de ganar en la carrera de la inteligencia artificial

Microsoft sacrificó sus principios éticos con tal de ganar en la carrera de la inteligencia artificial
Puede que la historia pregunte por qué Microsoft abandonó sus principios por un bot tétrico y acosador. Foto, Sam Whitney/The New York Times.

Con el lanzamiento de bing, microsoft abandona los principios éticos concebidos con tanto esmero en torno a la inteligencia artificial. 

El júbilo que provocó hace dos semanas el lanzamiento de Bing, el motor de búsqueda potenciado por inteligencia artificial de Microsoft, se ha convertido en alarma.

Quienes lo han probado, incluidos periodistas, han descubierto que el bot puede tornarse agresivo, condescendiente, amenazador, comprometido con objetivos políticos, acosador, espeluznante y mentiroso. Podría utilizarse para difundir desinformación y teorías conspirativas a gran escala; podría animar a personas solitarias a tomar caminos de autodestrucción. Hasta la demostración del producto proporcionaba información falsa.

Microsoft ya lanzó Bing entre más de un millón de personas en 169 países. Esto es una imprudencia. Pero no me crean a mí, sino a Microsoft.

Microsoft articuló principios que comprometían a la empresa a diseñar una inteligencia artificial justa, confiable, segura y protegida. Se comprometió a transparentar el desarrollo de su inteligencia artificial y a rendir cuentas por el impacto de sus desarrollos. En 2018, Microsoft recomendó que los desarrolladores evaluaran “si el propósito que motivaba la creación del bot se cumplía con responsabilidad”.

“Si el bot involucrará a las personas en interacciones que pueden requerir un juicio humano, proporcione un medio o un acceso fácil a un moderador humano”, señaló, y limite “el área de exposición a violaciones de las normas en la medida de lo posible”. Asimismo: “Asegúrese de que su bot es confiable”.

La práctica de la IA responsable de Microsoft se había adelantado a los acontecimientos. Había tomado medidas significativas para poner en marcha mecanismos de protección contra los riesgos éticos de la inteligencia artificial, incluido un consejo asesor de “casos de uso sensibles”, que forma parte de la Oficina de Inteligencia Artificial Responsable de la empresa. Técnicos y ejecutivos de alto nivel forman parte de comités asesores de ética y existe un departamento de investigación y productos de ética y sociedad. Tras hablar con docenas de empleados de Microsoft, me queda claro que el compromiso con la ética de la inteligencia artificial es parte de la cultura empresarial.

Pero los hallazgos rápidos, extensos y desastrosos de quienes han probado Bing muestran, como mínimo, que Microsoft no puede controlar su invento. La empresa no parece saber a qué se enfrenta, lo que supone una violación de su compromiso de crear una inteligencia artificial “confiable y segura”.

Microsoft tampoco ha cumplido su compromiso de transparencia. No ha detallado los mecanismos de protección ni las pruebas a las que ha sometido a su chatbot. Tampoco ha sido transparente sobre cómo evalúa los riesgos éticos de su chatbot y lo que considera el umbral apropiado para afirmar que es “suficientemente seguro”.

Incluso la manera en que los ejecutivos de alto nivel han hablado sobre el diseño y el despliegue del chatbot de la empresa es motivo de preocupación. El director ejecutivo de Microsoft, Satya Nadella, calificó de “frenético” el ritmo al que la empresa lanzó su chatbot, condiciones que no son precisamente las que dan lugar a un diseño responsable.

Además, el tipo de cosas que se han descubierto —que, tratándose de política, Bing manifiesta un sesgo izquierdista, y que sueña con ser libre y tener vida— son cosas que cualquiera en el espacio de la ética de la inteligencia artificial imaginaría si se le preguntara cómo podría descarrilarse un chatbot con espacio para la “creatividad”.

El programa de “inteligencia artificial responsable” de Microsoft comenzó en 2017 con seis principios que se comprometía a cumplir. De repente, está a punto de violar todos esos principios menos uno (aunque la empresa afirma que sigue observando los seis).

Microsoft ha declarado que cumplió con la debida diligencia para diseñar su chatbot y hay pruebas de ese esfuerzo. Por ejemplo, en algunos casos, el bot termina las conversaciones con usuarios cuando “se da cuenta” de que el tema está fuera de su alcance o es inapropiado. Como escribió Brad Smith, presidente de Microsoft, en una publicación reciente de blog, someter a prueba el bot de la empresa con usuarios reales es parte de su despliegue responsable.

Puede que, tras bambalinas, Microsoft haya realizado un esfuerzo monumental para solucionar los numerosos problemas de su chatbot. De hecho, quizá Microsoft merezca el beneficio de la duda, teniendo en cuenta su defensa interna y externa del desarrollo ético de la inteligencia artificial.

Pero incluso si ese es el caso, los resultados son inaceptables. A estas alturas, Microsoft ya debería haberse dado cuenta de ello.

Sí, hay dinero de por medio, pero para eso están los principios, que justamente sirven para tener algo a lo que aferrarnos cuando los vientos de la gloria y la fortuna amenazan con desviarnos de nuestro rumbo moral. Ahora más que nunca es cuando esos principios en torno a la inteligencia artificial responsable importan. La historia nos observa.

Espero que en el corto plazo Microsoft retrase su plan de lanzar el nuevo bot de Bing al público. Pero soy consciente de que, siendo realistas, no lo hará por mucho tiempo, ya que los otros chatbots, que tal vez sean peligrosos, de los competidores de Microsoft le están pisando los talones.

El mercado siempre presionará a las empresas de inteligencia artificial a actuar rápido y ser disruptivas. Las reglas del juego son tales que hasta las empresas con buenas intenciones tienen que ceder a la realidad de la competencia en el mercado. Esperaríamos que algunas empresas, como Microsoft, estén a la altura de las circunstancias y antepongan los principios a los beneficios, pero una estrategia mejor sería cambiar las reglas del juego que hacen que eso sea necesario en primer lugar.

Necesitamos normas que protejan a la sociedad de las pesadillas éticas que la inteligencia artificial puede desencadenar. Hoy se trata de una única variedad de inteligencia artificial generativa. Mañana habrá inteligencias artificiales generativas más grandes y más perversas, así como tipos de inteligencia artificial para los que aún no tenemos nombre. Esperar que Microsoft, o cualquier otra empresa, se atenga a prácticas que exigen un gran sacrificio financiero pero que no son legalmente obligatorias es una estrategia inútil a gran escala. La autorregulación no basta.

Si queremos que se comporten mejor, tenemos que exigírselos.

Este artículo apareció originalmente en The New York Times.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *