Los retos y las limitaciones de la inteligencia artificial en Facebook

Los retos y las limitaciones de la inteligencia artificial en Facebook
Mark Zuckerberg, director ejecutivo de Facebook, testifica ante el Senado dentro de la sala de audiencias de Hart en Washington, el 10 de abril de 2018. Facebook ha anunciado la inteligencia artificial como una solución a sus problemas de contenido tóxico, pero Mike Schroepfer, su director de tecnología , dice que no va a resolver todo. (Tom Brenner / The New York Times)

 Mike Schroepfer, el director de tecnología de Facebook, tenía lágrimas en los ojos.

MENLO PARK, California —Estábamos sentados en una sala de conferencias en la sede de Facebook, rodeados de pizarrones blancos cubiertos de mensajes escritos con marcadores azules y rojos, hablando de las dificultades técnicas de eliminar el contenido nocivo de la red social. Después mencionamos un episodio que demostró que esos desafíos eran insuperables: los tiroteos en Christchurch, Nueva Zelanda.

En marzo, un atacante asesinó a 51 personas en dos mezquitas y transmitió en vivo la atrocidad en Facebook. A la empresa le tomó aproximadamente una hora eliminar el video de su sitio. Para ese momento, el material sangriento se había difundido en todas las redes sociales.

Schroepfer no dijo nada, pero sus ojos comenzaron a brillar.

“Estamos trabajando en eso ahora mismo”, dijo después de un minuto, mientras trataba de mantener la compostura. “No encontraremos la solución mañana. Pero no quiero volver a tener esta conversación en seis meses. Podemos hacer un trabajo mejor para solucionar este problema”.

La pregunta es si eso es cierto o quizá Facebook se está engañando.

Durante los últimos tres años, la red social ha estado sometida al escrutinio público por la proliferación de contenido falso, engañoso e inapropiado que la gente divulga en sus perfiles. Como respuesta, Mark Zuckerberg, el director ejecutivo de Facebook, ha invocado una tecnología que, según él, ayudará a eliminar las publicaciones problemáticas: la inteligencia artificial.

El año pasado, Zuckerberg testificó ante el congreso estadounidense y dijo que Facebook estaba desarrollando sistemas automáticos para “identificar ciertos tipos de actividades negativas” y aseguró que “en un periodo de cinco a diez años, tendremos herramientas de IA” que puedan detectar y eliminar el discurso de odio. Desde entonces ha repetido alegremente esas afirmaciones en los medios, en conferencias telefónicas con Wall Street y en los eventos de Facebook.

Schroepfer —o Schrep, como se le conoce internamente— es la persona de Facebook que lidera los esfuerzos para construir las herramientas automatizadas con el fin de analizar y eliminar millones de esas publicaciones. Sin embargo, en tres entrevistas recientes reconoció que la tarea es abrumadora.

Eso se debe a que cada vez que Schroepfer y sus más de 150 especialistas en ingeniería crean soluciones que detectan y eliminan material nocivo, aparecen publicaciones nuevas y dudosas que los sistemas de inteligencia artificial jamás habían visto, y, por lo tanto, no pueden eliminarlas. La misión es aún más difícil porque “la actividad negativa” a menudo depende de quien la ve, y los humanos —ni hablar de las máquinas— no pueden ponerse de acuerdo sobre cómo definirla.

En una entrevista, Schroepfer reconoció que la IA por sí misma no podría curar los males de Facebook. “Creo que este es un punto de quiebre”, comentó. Pero no cree “que ‘todo esté resuelto’ ni que todos vayamos a empacar e irnos a casa”.

No obstante, la presión se siente. Después de las críticas generalizadas por el video de Christchurch, Facebook cambió sus políticas para restringir el uso de su servicio de transmisión en vivo. En una cumbre en París con el presidente francés Emmanuel Macron y la primera ministra de Nueva Zelanda Jacinda Ardern, la empresa también firmó un compromiso para reevaluar las herramientas que usa con el fin de identificar contenido violento.

Schroepfer, de 44 años, está en una posición en la que nunca quiso estar. Durante años, su empleo se trataba de ayudar a la red social a construir un laboratorio de IA de primera, donde las mentes más brillantes pudieran abordar desafíos tecnológicos como el uso de máquinas para identificar el rostro de las personas en las fotografías. Él y Zuckerberg querían una operación de IA que compitiera con la de Google, pues de manera generalizada se consideraba que esa empresa tenía el equipo más importante de investigadores en el área. Reclutó a doctores de la Universidad de Nueva York, la Universidad de Londres y la Universidad Pierre y Marie Curie en París.

Sin embargo, su papel evolucionó para convertirse en el de un eliminador de amenazas y contenido tóxico. Ahora él y sus colaboradores pasan gran parte de su tiempo aplicando IA para detectar y borrar amenazas de muerte, videos de suicidios, desinformación y mentiras.

“Ninguno de nosotros ha visto jamás algo así”, dijo John Lilly, exdirector ejecutivo de Mozilla y ahora inversionista de riesgo en Greylock Partners, quien estudió informática con Schroepfer en la Universidad de Stanford a mediados de la década de 1990. “No hay nadie más a quien preguntarle sobre cómo resolver estos problemas”.

Facebook nos permitió hablar con Schroepfer porque quería mostrar cómo están identificando el contenido problemático y, al parecer, porque quieren mostrar el lado más humano de sus ejecutivos. El director de tecnología a menudo muestra sus sentimientos, según muchos que lo conocen.

“No creo ser indiscreta al decir que he visto llorar a Schrep en el trabajo”, dijo Jocelyn Goldfein, una inversionista de riesgo en Zetta Venture Partners que trabajó con él en Facebook.

No obstante, pocos podrían haber pronosticado la manera en que Schroepfer reaccionaría a nuestras preguntas. En dos de las entrevistas, comenzó con un mensaje optimista acerca de que la IA podría ser la solución, antes de ponerse emotivo. En determinado momento, dijo que ir al trabajo a veces se había vuelto una lucha. Cada vez, se le quebraba la voz cuando hablaba de la escala de los problemas que Facebook enfrenta y la responsabilidad que tiene de cambiarlas.

“Jamás bajará a cero”, dijo sobre las publicaciones problemáticas.

Desde sus primeros días en Facebook, Schroepfer era considerado como un experto en solucionar problemas.

Criado en Delray Beach, Florida, donde sus padres tenían una estación de radio AM que reproducía viejas canciones de rocanrol pero luego cambiaron su programación al Rhythm and blues. Schroepfer se mudó a California en 1993 para asistir a Stanford donde estudió una licenciatura y un posgrado en informática, conviviendo con otros tecnólogos como Lilly y Adam Nash, que ahora es un alto ejecutivo en la empresa de intercambio de archivos Dropbox.

En 2008, Dustin Moskovitz, cofundador de Facebook, renunció como director de ingeniería. Después llegó Schroepfer, quien asumió ese cargo en la empresa. Facebook atendía a alrededor de dos millones de personas en ese entonces, y su misión era mantener en funcionamiento el sitio mientras su número de usuarios aumentaba exponencialmente. El cargo involucraba manejar a miles de ingenieros y decenas de miles de servidores informáticos en todo el mundo.

“Gran parte del trabajo era como estar en un autobús cuesta abajo y en llamas con cuatro llantas desinfladas. Me preguntaba: ‘¿Cómo lo mantenemos a flote?’”, dijo Schroepfer. Una gran parte de su día consistía en “convencer a los ingenieros para que no renunciaran” porque lidiaban con problemas a todas horas, comentó.

A lo largo de los siguientes años, su equipo construyó una serie de nuevas tecnologías para administrar un servicio de esa magnitud (Facebook tiene más de 2000 millones de usuarios actualmente). Implementaron nuevas herramientas de programación para ayudar a que la plataforma llegara a las computadoras personales y los celulares de manera más rápida y confiable. Presentó servidores informáticos en centros de datos para optimizar la operación de la enorme red informática. Al final, Facebook redujo de manera significativa las interrupciones del servicio.

“No recuerdo la última vez que hablé con un ingeniero que estuviera agotado debido a problemas de escala”, dijo Schroepfer.

Gracias a sus esfuerzos, Schroepfer ganó más responsabilidades. En 2013, lo ascendieron a director de tecnología. Su trabajo consistía en canalizar nuevas áreas de tecnología que la empresa debía explorar, siempre mirando al futuro. Como señal de la importancia de su puesto, utiliza un escritorio al lado del de Zuckerberg en la sede de Facebook y se sienta entre el director ejecutivo y Sheryl Sandberg, la directora de operaciones.

“Es una buena representación de cómo piensan y se comportan muchas personas en la empresa”, dijo Zuckerberg acerca de Schroepfer. “El superpoder de Schrep es su habilidad para capacitar y formar equipos en torno a diversos problemas. Jamás he trabajado con alguien más que pueda hacerlo como él”.

Por eso no fue sorprendente que Zuckerberg recurriera a Schroepfer para lidiar con toda la toxicidad que agobiaba a Facebook.

Dentro de una sala de conferencias de Facebook una tarde reciente, Schroepfer abrió dos imágenes en su computadora personal de Apple. Una era de un brócoli y la otra de unos brotes de marihuana. Todos en la sala veían fijamente las imágenes. Algunos no estábamos muy seguros de cuál era qué.

Schroepfer mostró las imágenes para dar un ejemplo. Aunque algunos teníamos problemas para distinguir entre ambas, los sistemas de Facebook ahora son capaces de detectar patrones en miles de imágenes para poder reconocer la planta de marihuana. En cuanto la IA detectó las imágenes de la marihuana, muchas de las cuales estaban vinculadas con anuncios de Facebook que usaban las fotografías para vender marihuana mediante la red social, la empresa pudo eliminarlas.

“Ahora podemos eliminar ese tipo de cosas, de manera proactiva”, dijo Schroepfer.

El problema era que el ejercicio de la marihuana contra el brócoli no solo era una señal de progreso, sino también de los límites a los que estaba llegando Facebook. El equipo de Schroepfer ha construido sistemas que la empresa utiliza para identificar y eliminar imágenes de marihuana, desnudez y contenido relacionado con terroristas. Sin embargo, los sistemas no están detectando todas esas imágenes, pues siempre hay contenido inesperado, lo cual implica que millones de publicaciones de desnudos, marihuana y terrorismo siguen llegando a los usuarios de Facebook.

Identificar imágenes inapropiadas es una de las tareas más fáciles para la IA. Es más difícil construir sistemas para identificar artículos noticiosos falsos o discurso de odio. Los artículos de noticias falsas pueden modificarse fácilmente para que parezcan reales. Además, el discurso de odio es problemático porque es muy difícil que las máquinas reconozcan los matices lingüísticos. Muchos matices difieren de un idioma a otro, mientras que el contexto en torno a las conversaciones rápidamente cambia conforme estas se llevan a cabo, por lo que es difícil que las máquinas se mantengan al tanto.

Delip Rao, director de investigación en AI Foundation, una organización sin fines de lucro que explora la manera en que la inteligencia artificial puede combatir la desinformación, describió el desafío como “una carrera armamentista”. La IA se construye a partir de lo que ha venido antes. Pero a menudo no hay nada de lo cual aprender. El comportamiento cambia. Los atacantes crean nuevas técnicas. Por definición, se convierte en un juego del gato y el ratón.

“A veces estás un paso adelante de la gente que provoca daños”, dijo Rao. “A veces son ellos los que están un paso adelante de ti”.

Esa tarde, Schroepfer intentó responder nuestras preguntas acerca del juego del gato y el ratón con datos y números. Dijo que ahora Facebook elimina automáticamente el 96 por ciento de toda la desnudez de la red social. El discurso de odio era más difícil y afirmó que la empresa atrapa el 51 por ciento de ese tipo de publicaciones en el sitio (Después Facebook declaró que la cifra había aumentado al 65 por ciento).

Schroepfer reconoció el elemento armamentista. Facebook, que puede detectar y eliminar automáticamente transmisiones problemáticas de videos en vivo, no identificó el video de Nueva Zelanda en marzo, dijo, porque no se parecía en realidad a nada que se hubiera cargado a la red social en el pasado. El video ofrecía un punto de vista de primera persona, como en un juego de computadora.

Al diseñar sistemas que identifican la violencia gráfica, la red social generalmente trabaja a partir de imágenes existentes, imágenes de gente que patea gatos, perros que atacan gente, autos que arrollan a peatones, una persona que ataca a otra con un bate de béisbol. Pero, según el directivo, “ninguna de esas imágenes se parecía mucho al video”.

La novedad del video de ese tiroteo era la razón por la que era tan impactante, dijo Schroepfer. “Esa también es la razón por la que no fue detectado de manera inmediata”, dijo, y agregó que había visto el video varias veces para entender cómo Facebook podría identificar el siguiente.

“Desearía poder borrarlo de mi mente”, dijo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *