“La inteligencia artificial es un certificado de poder”: entrevista a Karina Pedace, doctora en filosofía especializada en inteligencia artificial. La investigadora de la UNLaM recibió un reconocimiento como una de las 100 Mujeres Brillantes en Ética de la Inteligencia Artificial. Una charla sobre la importancia de los límites y alcances de esta nueva tecnología.
La inteligencia artificial cumple un rol cada vez más importante en la vida cotidiana de los humanos. Ya sea ver una película que nos recomendó el servicio de streaming que contratamos, chequear el clima en nuestro celular o decidir el destino de nuestras vacaciones por las publicidades en internet. Todas esas acciones ya no nos sorprenden, y las aceptamos como parte de nuestro día a día.
En las últimas semanas, las redes sociales se llenaron de usuarios que compartieron sus experiencias con el chat GPT, un chat con inteligencia artificial cuya diferencia entre otras de su tipo consiste en su aparente precisión: es capaz de responder preguntas, generar textos, traducir y brindar información sobre un abanico de tópicos variados, en tiempo real, y con un lenguaje coherente, imitando la conversación humana.
Este tipo de avances tecnológicos producen en la sociedad debates acerca de cuáles esferas de la vida cotidiana se verán afectadas, y cuánto: ya sea el mundo del trabajo, de la educación, el arte, entre otras. Si bien el debate es imprescindible, la pregunta es quién tiene el derecho de tenerlo. Quizás, lo importante sería que no esté cooptado por los territorios que suelen apropiarse del debate.
Recientemente, la investigadora de la Universidad Nacional de La Matanza (UNLaM), Karina Pedace, recibió un reconocimiento como una de las 100 Mujeres Brillantes en Ética de la Inteligencia Artificial (IA) – WAIE -, una distintición de la institución americana Social Good Fund por su trabajo y compromiso por la reflexión crítica sobre la inteligencia artificial.
Buenos Aires 12 entrevistó a Karina acerca de la importancia de un debate situado sobre los límites y alcances de la inteligencia artificial, además de la responsabilidad de los usuarios de pensar críticamente.
Ni tan inteligente, ni tan artificial
“Yo adscribo a la teoría de que la inteligencia artificial no es tan inteligente ni tan artificial“, afirma la investigadora, doctora en Filosofía por la Universidad de Buenos Aires, docente e investigadora en el Departamento de Humanidades y Ciencias Sociales de la UNLaM y en la Facultad de Filosofía y Letras de la UBA.
Karina se especializa en investigar lo que se conoce como human-centered AI, o inteligencia artificial centrada en lo humano. “Por un lado, no es tan artificial porque existe de forma corpórea, está hecha de recursos materiales, mano de obra, infraestructura, logística. Por otro lado, decimos que no son tan inteligentes en el sentido de que no son capaces de generar pensamiento por sí solas”, afirma.
Estos primeros conceptos para entender la IA son un punto de partida crucial para entender los límites y desarrollos del debate. Los sistemas basados en aprendizaje automático o machine learning, tan en boga en estos días, no son capaces de discernir algo sin un entrenamiento vasto, con enormes conjuntos de datos, o directrices decididas previamente por humanos.
“Todo desarrollo tecnológico implica nuevas posibilidades de acción, es decir, qué acciones queremos realizar y hacia dónde queremos orientarlas. Esa es una pregunta filosófica, que la técnica no puede responder. Somos nosotros los humanos los que tenemos que resolverla”, afirma Karina.
Sesgos
Sobre todo a partir del grupo de investigación que Karina integra desde la Universidad Nacional de La Matanza (UNLaM), se trabaja sobre los sesgos presentes en la inteligencia artificial. Según la filósofa, hay estructuras subyacentes, políticas y sociales que permean la IA.
“La inteligencia artificial es un certificado de poder”, afirma Karina. “Es importante que sepamos que son sistemas diseñados mediante los saberes predominantes ya existentes. Las tecnologías, en cuanto constructos culturales y políticos, no están desprovistas de valores. Ya desde el momento en que identificamos que un problema puede recibir una solución tecnológica, hay mucha decisión humana en juego. Los datos de entrenamiento de esta inteligencia artificial pueden ser discriminados según sesgos, de género, raza, clase, que terminan subalternizado grupos ya de por sí subalternizados”.
En 2018, la provincia de Salta y el gigante tecnológico estadounidense Microsoft presentaron un sistema algorítmico para predecir el embarazo adolescente llamado Plataforma Tecnológica de Intervención Social. El objetivo declarado era utilizar el algoritmo para predecir qué niñas de zonas de bajos ingresos quedarían embarazadas en los próximos cinco años, sin comunicar qué acciones se tomarían al respecto o cómo esta información ayudaría a prevenir el embarazo adolescente.
“Los datos fueron recolectados bajo una serie de asunciones tremendas. Por ejemplo, recolectando datos a través de encuestas a los jefes de familia, en vez de a las sujetas a las que la inteligencia trataba de “ayudar”. Es crucial pensar quienes y cómo van a ser impactadas por el desarrollo del sistema, además de pensar en no vulnerar derechos básicos de las personas, como podría ser el derecho a la privacidad”, afirma.
Qué hacer: redirigir el debate
A pesar de que su reconocimiento es individual, Karina constantemente refuerza y reconoce el carácter colectivo fundamental en todo esto, no solamente de sus investigaciones, sino del diálogo con sus colegas.
“El pensamiento filosófico se construye a través del diálogo”, afirma. Pese a tener una larga trayectoria académica, Karina piensa que la filosofía tiene un compromiso muy grande con salir de la torre de marfil a la que a veces se acostumbra, y salir a la calle.
“La conversación sobre IA tiene que ser polifónica, salir de la academia. Por ejemplo, de lugares de organización civil, organizaciones sociales de base, el estado. Es evidente que la mera buena voluntad y autoregulación de las corporaciones hegemónicas no es ninguna garantía, y no podemos dejarlo librado al azar”, afirma.
La filósofa es parte del grupo GIFT, conformado por Tomás Balmaceda, Diana Pérez, Diego Lawler, Maximiliano Zeller y Tobías Schleider, un grupo de filósofos argentinos que buscan no solamente reflexionar sobre la inteligencia artificial, sino diversificar y visibilizar el debate. Por eso, organizan lecturas, talleres y debates para que la sociedad participe del cambio.
“Lo que hace falta es pensar de una manera enraizada, situada, multidisciplinar, y pensar también desde nuestro sur, ya que en general estas discusciones se dan desde el norte global. Es importante situar la discusión crítica en América latina, tratándose de una región tan desigual, porque lo que no queremos es que ayude a que se sigan exacerbando esas brechas”, afirma.
Sin demonizar las tecnologías, el pensamiento crítico sobre estos avances nos permitiría esquivar la fiebre celebratoria de la innovación por la innovación en sí misma, y, en cambio, tomar distancia para pensar democráticamente.
“Algunas de las preguntas más importantes que tenemos que hacernos son qué concepción de lo humano tenemos para diseñar inteligencia basada en eso, y bajo qué condiciones lo haremos, con qué tipo de costos, para qué y quiénes serán los beneficiarios de eso. Además, quienes van a tener acceso a ella, ya que actualmente hay una gran porción de la población que no tiene acceso a este tipo de tecnologías”, afirma.
Según Karina, todes tenemos una responsabilidad. En principio, como usuarios, y después desde el lugar que a cada quién le toque ocupar. Por lo pronto, quizás leer los términos y condiciones antes de hacerme una cuenta en cualquier página web tenga que ser el comienzo.
Fuente: Lucía Requejo para www.pagina12.com.ar