por NIR EISIKOVITS – Umass Boston
El auge de ChatGPT y sistemas de inteligencia artificial similares fue acompañada de un fuerte aumento de la ansiedad por la IA. Durante los últimos meses, los ejecutivos y los investigadores de seguridad de la IA estuvieron ofreciendo predicciones, denominadas “P (doom)”, sobre la probabilidad de que la IA provoque una catástrofe a gran escala.
Las preocupaciones alcanzaron su punto máximo en mayo de 2023, cuando la organización de defensa e investigación sin fines de lucro Center for AI Safety emitió una declaración de una oración: “Mitigar el riesgo de extinción a causa de la I.A. debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. La declaración fue firmada por muchos actores clave en el campo, incluidos los líderes de OpenAI, Google y Anthropic, así como dos de los llamados “padrinos” de la IA: Geoffrey Hinton y Yoshua Bengio.
Podría preguntarse cómo se supone que se desarrollan tales miedos existenciales. Un escenario famoso es el experimento mental del “maximizador de clips de papel” articulado por el filósofo de Oxford Nick Bostrom. La idea es que un sistema de inteligencia artificial encargado de producir tantos clips de papel como sea posible podría hacer todo lo posible para encontrar materias primas, como destruir fábricas y causar accidentes automovilísticos.
Una variación que requiere menos recursos tiene una IA encargada de obtener una reserva para un restaurante popular que apaga las redes celulares y los semáforos para evitar que otros clientes obtengan una mesa.
Suministros de oficina o cena, la idea básica es la misma: la IA se está convirtiendo rápidamente en una inteligencia alienígena, buena para lograr objetivos pero peligrosa porque no necesariamente se alineará con los valores morales de sus creadores. Y, en su versión más extrema, este argumento se transforma en ansiedades explícitas acerca de que las IA esclavicen o destruyan a la especie humana.
Daño real
En los últimos años, mis colegas y yo en el Centro de Ética Aplicada de UMass Boston hemos estado estudiando el impacto del compromiso con la IA en la comprensión que las personas tienen de sí mismas, y creo que estas ansiedades catastróficas son exageradas y están mal dirigidas.
Sí, la capacidad de la IA para crear videos y audios profundamente falsos y convincentes es aterradora y puede ser abusada por personas con malas intenciones. De hecho, eso ya está sucediendo: los agentes rusos probablemente intentaron avergonzar al crítico del Kremlin, Bill Browder, atrapándolo en una conversación con un avatar del expresidente ucraniano Petro Poroshenko. Los ciberdelincuentes estuvieron utilizando la clonación de voz de IA para una variedad de delitos, desde atracos de alta tecnología hasta estafas comunes.
Los sistemas de toma de decisiones de IA que ofrecen aprobación de préstamos y recomendaciones de contratación conllevan el riesgo de sesgo algorítmico, ya que los datos de capacitación y los modelos de decisión en los que se ejecutan reflejan prejuicios sociales de larga data.
Estos son grandes problemas y requieren la atención de los formuladores de políticas. Pero han existido por un tiempo, y no son cataclísmicos.
En diferentes ligas
La declaración del Centro para la Seguridad de la IA agrupó a la IA con las pandemias y las armas nucleares como un riesgo importante para la civilización. Hay problemas con esa comparación. Covid-19 resultó en casi 7 millones de muertes en todo el mundo, provocó una crisis de salud mental masiva y continua y creó desafíos económicos, incluida la escasez crónica de la cadena de suministro y la inflación galopante.
Las armas nucleares probablemente mataron a más de 200.000 personas en Hiroshima y Nagasaki en 1945, se cobraron muchas más vidas de cáncer en los años siguientes, generaron décadas de profunda ansiedad durante la Guerra Fría y llevaron al mundo al borde de la aniquilación durante la crisis de los misiles en Cuba en 1962. También cambiaron los cálculos de los líderes nacionales sobre cómo responder a la agresión internacional, como ocurre actualmente con la invasión rusa de Ucrania.
La IA simplemente no está cerca de obtener la capacidad de hacer este tipo de daño. El escenario del clip y otros similares son ciencia ficción. Las aplicaciones de IA existentes ejecutan tareas específicas en lugar de emitir juicios amplios. La tecnología está lejos de poder decidir y luego planificar los objetivos subordinados necesarios para bloquear el tráfico y conseguir un asiento en un restaurante, o para volar una fábrica de automóviles para satisfacer su ansia de sujetapapeles.
La tecnología no solo carece de la complicada capacidad de juicio multicapa que está involucrada en estos escenarios, sino que tampoco tiene acceso autónomo a suficientes partes de nuestra infraestructura crítica para comenzar a causar ese tipo de daño.
Que significa ser humano
En realidad, existe un peligro existencial inherente al uso de la IA, pero ese riesgo es existencial en el sentido filosófico más que apocalíptico. La IA en su forma actual puede alterar la forma en que las personas se ven a sí mismas. Puede degradar habilidades y experiencias que las personas consideran esenciales para ser humanos.
Por ejemplo, los humanos son criaturas que emiten juicios. Las personas sopesan racionalmente los detalles y hacen juicios diarios en el trabajo y durante el tiempo libre sobre a quién contratar, quién debería obtener un préstamo, qué ver, etc. Pero, cada vez más, muchos de estos juicios están siendo automatizados y convertidos en algoritmos. Mientras eso sucede, el mundo no se acabará. Pero la gente perderá gradualmente la capacidad de hacer estos juicios por sí misma. Cuantos menos haga la gente, es probable que peor se vuelvan al hacerlos.
O consideren el papel del azar en la vida de las personas. Los seres humanos valoran los encuentros fortuitos: encontrarse con un lugar, una persona o una actividad por accidente, sentirse atraídos y apreciar retrospectivamente el papel que jugó el accidente en estos hallazgos significativos. Pero el papel de los motores de recomendación algorítmica es reducir ese tipo de casualidad y reemplazarlo con planificación y predicción.
Finalmente, consideren las capacidades de escritura de ChatGPT. La tecnología está en proceso de eliminar el papel de las tareas de escritura en la educación superior. Si lo hace, los educadores perderán una herramienta clave para enseñar a los estudiantes a pensar críticamente.
Empobrecidos, no extintos
Entonces, no, la IA no hará estallar el mundo. Pero su aceptación cada vez más acrítica, en una variedad de contextos estrechos, significa la erosión gradual de algunas de las habilidades más importantes de los humanos. Los algoritmos ya están socavando la capacidad de las personas para emitir juicios, disfrutar de encuentros fortuitos y perfeccionar el pensamiento crítico.
La especie humana sobrevivirá a tales pérdidas. Pero nuestra forma de existir se empobrecerá en el proceso. Las fantásticas ansiedades en torno al próximo cataclismo de la IA, la singularidad, Skynet, o como se pueda pensar, oscurecen estos costos más sutiles. Recuerden las famosas líneas finales de T. S. Eliot en The Hollow Men: “Así es como termina el mundo”, escribió, “no con una explosión sino con un gemido”.
Fuente: The Conversation/ traducción: Alina Klingsmen