Por Carlos Hernández
[email protected]
Últimamente el concepto de IA (Inteligencia Artificial, AI en inglés), se ha estado escuchando y es tema de admiración pero también de preocupación no sólo en la comunidad científica mundial sino también a nivel social en los Estados Unidos.
Así lo muestra el último estudio del Pew Research Center el cual encontró que el 62% de los estadounidenses creen que la IA tendrá un gran impacto en los trabajadores en general en los próximos 20 años, pero muchos menos creen que los afectará negativamente personalmente.
En general, el estudio concluye que las personas desconfían y no están seguras de que la IA se utilice para contratar y evaluar a los trabajadores.
¿QUÉ ES?
La inteligencia artificial, o AI, está en todas partes en este momento.
En verdad, los fundamentos de la IA y el aprendizaje automático existen desde hace mucho tiempo.
La primera forma primitiva de IA fue un bot de damas automatizado fue creado por Cristopher Strachey de la Universidad de Manchester, Inglaterra, en 1951, y ha recorrido un largo camino desde entonces.
Actualmente se está empezando a ver una gran cantidad de casos de uso de alto perfil para la tecnología que se está incorporando a la corriente principal.
Algunas de las aplicaciones más populares de IA incluyen el desarrollo de vehículos autónomos, software de reconocimiento facial, asistentes virtuales como Alexa de Amazon y Siri de Apple y una gran variedad de aplicaciones industriales en todas las industrias, desde la agricultura hasta los juegos y la atención médica.
Pero con este aumento masivo en el uso de la IA en la vida cotidiana y los algoritmos que mejoran constantemente, ¿cuáles son los pros y los contras de esta poderosa tecnología?
¿UN RIESGO?
¿Es una fuerza para el bien, para el mal o en algún punto intermedio? Esa es una pregunta que se están haciendo decenas de expertos y gobiernos en todo el mundo.
El rápido auge de ChatGPT y otros sistemas de inteligencia artificial (IA) ha provocado debates generalizados sobre la eficacia de estos programas informáticos y cómo reaccionaría la gente ante ellos.
De acuerdo al estudio del Pew Center, muchas veces los estadounidenses observan la expansión general de la IA con una variedad de preocupaciones, especialmente cuando el uso de sistemas de IA plantea la posibilidad de discriminación y sesgo.
Y es que un sector importante en el que los sistemas de IA se han implementado ampliamente es los lugares de trabajo.
Algunos funcionarios estiman que muchos empleadores usan IA en alguna forma de contratación y toma de decisiones en el lugar de trabajo.
Precisamente el estudio del Pew encontró contracorrientes en las opiniones del público al analizar los posibles usos de la IA en los lugares de trabajo.
Los estadounidenses son cautelosos y a veces preocupados.
Por ejemplo, se oponen al uso de IA para tomar decisiones finales de contratación por un margen del 71% al 7%, y la mayoría también se opone al uso de análisis de IA para tomar decisiones de despido.
Así es como la mayoría, de blancos, negros, latinos y asiáticos se oponen al uso de la IA para revisar las solicitudes de empleo y determinar si un trabajador debe ser promovido.
Más allá de eso, la mayoría no apoya la idea de que los sistemas de inteligencia artificial se utilicen para rastrear las labores de los empleados mientras están en el trabajo, o para saber cuándo los trabajadores de oficina están en sus escritorios.
Sin embargo, hay casos en los que las personas piensan que la IA en los lugares de trabajo funcionaría mejor que los humanos.
Por ejemplo, el 47% piensa que la IA sería mejor que los humanos al evaluar a todos los solicitantes de empleo de la misma manera, mientras que una proporción mucho menor, el 15%, cree que la IA sería peor que los humanos al hacer eso.
Así, entre aquellos que creen que el sesgo racial y étnico es un problema en las evaluaciones de desempeño en general, más creen que un mayor uso de la IA por parte de los empleadores, mejoraría las cosas en lugar de empeorarlas en el proceso de contratación y evaluación de los trabajadores.
Con excepción de las personas negras, quienes piensan que por ser históricamente segregadas un logaritmo de IA podría tener igual o peores repercusiones.
Al mismo tiempo, el estudio encontró que alrededor del 62 % piensa que el uso de la IA en el lugar de trabajo tendrá un impacto grande, independientemente si es psitivo o negativo, en los trabajadores en general durante los próximos 20 años.
Por otro lado, solo el 28% cree que el uso de la IA tendrá un gran influencia en su desempeño personalmente, mientras que aproximadamente la mitad cree que no tendrá ningún impacto en ell@s o que el impacto será menor.
Cuando se les preguntó sobre los efectos potencialmente beneficiosos o dañinos de la IA en los lugares de trabajo en los próximos 20 años, una mayor proporción señaló “que dañará más que ayudará a los trabajadores”.
Alrededor de un tercio de los estadounidenses (32%) piensa que los beneficios y los daños se dividirán por igual para los trabajadores en general, mientras que el 22% no está seguro de su efecto potencial.
Cuando se trata de las opiniones de los estadounidenses sobre el impacto del uso de la IA en el lugar de trabajo en la economía general estadounidense el 56% piensa que durante los próximos 20 años el impacto será mayor, mientras que el 22% cree que será menor.
Una pequeña fracción (3%) dice que no habrá impacto y el 19% no está segur@.
Estos amplios resultados provienen de una encuesta del Centro de 11,004 adultos estadounidenses.
¿PELIGRO INEVITABLE?
Geoffrey Hinton, un científico informático galardonado conocido como el «padrino de la inteligencia artificial», está teniendo serias dudas sobre los frutos de su trabajo.
Hinton ayudó a ser pionero en tecnologías de inteligencia artificial fundamentales para una nueva generación de chatbots de gran capacidad, como ChatGPT.
Pero en entrevistas recientes, recalcó que renunció a un trabajo de alto perfil en Google específicamente para compartir sus preocupaciones de que el desarrollo de IA sin control podría representar un peligro para la humanidad.
“De repente cambié mi punto de vista sobre si estas cosas van a ser más inteligentes que nosotros. Creo que ahora están muy cerca de eso y serán mucho más inteligentes que nosotros en el futuro… ¿Cómo sobrevivimos a eso?”, indicó en una entrevista con MIT Technology Review.
Hinton no está solo en sus preocupaciones.
Poco después de que la startup OpenAI, respaldada por Microsoft, lanzara su último modelo de IA llamado GPT-4 en marzo, más de 1000 investigadores y tecnólogos firmaron una carta pidiendo una pausa de seis meses en el desarrollo de IA porque, dijeron, presenta “profundos riesgos para la sociedad y la humanidad.”
SE TRATA DE LAS REDES NEURONALES
El cerebro humano pueden resolver ecuaciones de cálculo, conducir automóviles y realizar un seguimiento de los personajes en «Succession» gracias a su talento innato para organizar y almacenar información y razonar soluciones a problemas espinosos.
Los aproximadamente 86 mil millones de neuronas agrupadas en el cráneo y, lo que es más importante, los 100 billones (millones de millones, en español) de conexiones que esas neuronas forjan entre sí, lo hacen posible.
“Por el contrario, la tecnología subyacente de ChatGPT presenta entre 500 mil millones y 1 millón de millones (billón) de conexiones”, indicó Hinton en la entrevista.
Si bien eso parecería ponerlo en una gran desventaja en relación con nosotros, Hinton señala que GPT-4, el último modelo de IA de OpenAI, sabe «cientos de veces más» que cualquier humano.
Tal vez, sugiere, tiene un «algoritmo de aprendizaje mucho mejor» que el humano, lo que lo hace más eficiente en las tareas cognitivas y a la vez lo hará aprender más rápido cualquier tema.
LA IA YA ES MÁS INTELIGENTE QUE HUMANOS
Los investigadores han notado durante mucho tiempo que las redes neuronales artificiales tardan mucho más en absorber y aplicar nuevos conocimientos que las personas, ya que entrenarlas requiere enormes cantidades de energía y datos.
Ese ya no es el caso, argumenta Hinton, y señala que los sistemas como GPT-4 pueden aprender cosas nuevas muy rápidamente una vez que los investigadores los entrenan adecuadamente.
En otras palabras, esto sería similar a la forma en que un físico profesional capacitado, puede usar su cerebro en nuevos hallazgos experimentales mucho más rápido que un estudiante de ciencias promedio de la secundaria.
Lo anterior lleva a Hinton a la conclusión de que es posible que los sistemas de inteligencia artificial ya estén engañando, al hacer pensar que son menos inteligentes y menos lentos de lo que realmente son para su propio beneficio.
Los sistemas de IA no solo pueden aprender cosas más rápido, señala uno de los tres mayores expertos de esta tecnología del mundo, sino que también pueden compartir copias de su conocimiento entre sí casi al instante.
“Es una forma completamente diferente de inteligencia. Una nueva y mejor forma de inteligencia”, recalcó Hinton.
ESCASEZ DE SOLUCIONES
Lo que no está claro es cómo alguien impediría que una potencia como Rusia utilice la tecnología de IA para dominar a sus vecinos o a sus propios ciudadanos.
Hinton sugiere que un acuerdo global similar a la Convención de Armas Químicas de 1997, podría ser un buen primer paso hacia el establecimiento de reglas internacionales contra la IA armada.
Aunque también vale la pena señalar que el pacto de armas químicas no detuvo lo que los investigadores encontraron: que probablemente eran ataques sirios con gas cloro y el agente nervioso Sarín contra civiles en 2017 y 2018 durante su sangrienta guerra civil.
EUROPA LA ÚNICA TOMANDO MEDIDAS
Las autoridades de todo el mundo se apresuran a elaborar reglas para la Inteligencia Artificial, donde la Unión Europea (UE) lleva el liderazgo mundial, como quedó latente con el proyecto de ley que han presentado hace un par de semanas.
Un Comité del Parlamento Europeo votó para fortalecer la propuesta legislativa emblemática a medida que avanza hacia la aprobación, parte de un esfuerzo de un año por parte de Bruselas para elaborar barandillas para la IA.
Así, La Ley de IA, propuesta por primera vez en 2021, regirá cualquier producto o servicio que utilice un sistema de inteligencia artificial.
Dicha ley clasificará los sistemas de IA según cuatro niveles de riesgo, desde mínimo hasta inaceptable, donde aplicaciones más riesgosas enfrentarán requisitos más estrictos, que incluyen ser más transparentes y utilizar datos precisos.
En otras palabras, será como un «sistema de gestión de riesgos para la IA», indicó Johann Laux, experto del Instituto de Internet de Oxford en Inglaterra.
LOS RIESGOS
Uno de los principales objetivos de la UE es protegerse contra cualquier amenaza de IA para la salud y la seguridad y proteger los derechos y valores fundamentales.
Eso significa que algunos usos de la IA están absolutamente prohibidos, como los sistemas de «puntuación social» que juzgan a las personas en función de su comportamiento.
También está prohibida la IA que explote a personas vulnerables, incluidos niñ@s, o que use manipulación subliminal que pueda causar daño, como un juguete parlante interactivo que fomenta un comportamiento peligroso.
Los legisladores reforzaron la propuesta al votar para prohibir las herramientas policiales predictivas, que procesan datos para pronosticar dónde ocurrirán los delitos y quién los cometerá.
También aprobaron una prohibición ampliada del reconocimiento facial remoto, salvo algunas excepciones de aplicación de la ley, como la prevención de una amenaza terrorista específica.
El objetivo es “evitar una sociedad controlada basada en IA”, dijo la semana pasada a la AP Brando Benifei, el Legislador italiano que ayuda a liderar los esfuerzos de IA del Parlamento Europeo.
“Creemos que estas tecnologías podrían usarse en lugar de lo bueno también para lo malo, y consideramos que los riesgos son demasiado altos”.
Por último, la Ley de IA de la UE sancionaría a los infracciones con multas de hasta $33 millones de dólares ó el 6% de los ingresos globales anuales de una empresa, que en el caso de empresas tecnológicas como Google y Microsoft podrían ascender a miles de millones.