Getting your Trinity Audio player ready...
|
Por Viviana Ortiz
Tiempo de lectura: 4 minutos.
El pasado abril mediante carta abierta, Elon Musk y otros venerables de la tecnología realizaron un llamado a establecer una moratoria de 6 meses en el desarrollo de Inteligencia Artificial.
¿Qué significa exactamente esto?
Básicamente es un llamado público a los laboratorios de IA para que se abstengan de entrenar modelos más avanzados que GPT 4 (Generative Pre-trained Transformer 4, o más conocido como el modelo detrás de Chat GPT, bueno su versión anterior GPT 3) durante dicho período. Esto ha provocado mucha discusión alrededor del tema y diversos posicionamientos, así pensé ¿por qué no escribir sobre ello?

Cuando las personas se preguntan sobre los riesgos del avanzado desarrollo de la Inteligencia Artificial, o de una superinteligencia artificial, por lo general lo hacen desde dos aristas, ambas abordadas en dicha carta y en más detalle en el Publicación científica de Future of Life Institute ( Documento citado en la famosa carta, pero que muy pocos se han tomado la molestia de leer).
La primera preocupación es en relación al “desplazamiento” laboral y la otra es un poco más siniestra; se trata de un riesgo a nuestra propia existencia, o a la existencia de la sociedad y la civilización como la conocemos.
Les voy a ahorrar la lectura de la carta pero en especial del paper, cuyo nombre ya dice bastante “Elaboración de políticas en pausa” con el subtítulo «¿Qué pueden hacer ahora los responsables políticos para combatir los riesgos de los sistemas avanzados de la IA?» nótese el énfasis en ahora.

Fuente: Canva
Dicho documento inicia brindando contexto mediante opiniones de respetables expertos en relación a los peligros fundamentales del desarrollo acelerado de la IA. Una que llamó mi atención fue la de Stuart Rusell profesor de la Universidad de Berkeley “el tiempo para decir que se trata de pura investigación ya pasó hace mucho… la humanidad tiene mucho que ganar con la IA, pero al mismo tiempo todo que perder”. Si les parece un poco dramática, creo que la de Gary Marcus , profesor de la Universidad de New York es una descripción más pragmática del problema real: «Tenemos una tormenta perfecta producto de irresponsabilidad empresarial, adopción generalizada, falta de regulación y un gran número de incógnitas…”
Básicamente, el argumento es que los modelos ya han mostrado posicionamientos y un riesgo claro de proveer desinformación. De acuerdo a los autores del documento en cuestión, si estos sistemas se volvieran más sofisticados, existiría el riesgo de que desestabilicen mercados laborales, instituciones políticas e incluso amenacen la seguridad nacional.

Fuente: Canva
¿Por qué lo harían? Pues debido a objetivos definidos por un grupo muy pequeño de humanos o por la misma máquina, sin considerar aspectos tan importantes como los derechos humanos, la seguridad de las personas e incluso nuestra supervivencia. Debido a esta preocupación, un grupo de líderes involucrados de alguna forma en el desarrollo de la IA se han reunido para llamar a esta pausa en la investigación avanzada.
El objetivo de la pausa sería contar con el tiempo necesario para entender a los sistemas, reflexionar sobre las implicaciones sociales, éticas y de seguridad y consecuentemente garantizar un desarrollo seguro. O al menos intentarlo.
El documento también incluye ciertas recomendaciones para el desarrollo de estas políticas. Tales como definir procesos mandatorios de auditoría y certificación por parte de terceros, limitar fuertemente el acceso al poder computacional, crear agencias de regulación de IA, establecer responsabilidad en caso de ocasionar daños, y desarrollar estándares para la identificación y manejo de contenido generado por IA.

Fuente: Canva
Todas estas recomendaciones son abordadas una a una, describiendo la situación actual, brindando casos específicos en diferentes regiones del globo, así como ejemplos relevantes; de tal manera que estaría fundamentada la necesidad de incluir dicha línea dentro de las políticas que los autores de esta carta abierta impulsan.
Para efectos de este blog, voy a abordar las dos que seguramente nos resultan más extrañas a la mayoría. Primero, ¿Qué es eso de regular el acceso al poder computacional? Existe una relación directa entre el poder computacional usado para entrenar un modelo y sus capacidades una vez entrenado. En palabras sencillas, mientras más data de entrenamiento, más aprende el modelo, y por ende es más poderoso. El asunto es que entrenar un modelo de este tipo no es algo que se puede hacer con un pequeño servidor. Para explicarlo mejor tomemos el ejemplo de GPT3 (también conocido como Davinci), este tiene 175 mil millones de parámetros, Open AI tuvo que aliarse con Microsoft (quien por cierto también inyectó mil millones en esta alianza) para crear una supercomputadora de 10000 GPUs y 400 gigabits de conectividad de red por segundo por servidor. En castellano, un masivo poder de cómputo.
Esto traducido en monetario significa que solo el entrenamiento de este modelo puedo haber alcanzado los 20 millones de dólares, lo que superaría de largo los supuestos 4.5 millones de costo del proyecto. Por cierto, no pierdan el tiempo intentando preguntar a Chat GPT, pues no tiene acceso a información sobre su arquitectura, volumen de datos o los costos derivados de su desarrollo. En conclusión, este tipo de capacidades estarían reservadas a grupos muy pequeños de poder, el resto nos mantendremos como simples usuarios expectantes.

Fuente: Canva
Por otro lado, ¿qué es eso de los estándares de identificación de contenido generado por IA?, pues la idea sería definir métodos obligatorios para que todos puedan reconocerlos y manejarlos de manera adecuada. De esta forma se evitaría, por ejemplo, que una imagen o información generada por IA produzca caos o desestabilice mercados. Solo por nombrar un caso potencial bastante simple que tal vez no suene tan plausible, pero todos sabemos lo que las fake news pueden lograr ¿cierto?
No tocaré el tema de las responsabilidad de daños o la creación de entidades regulatorias, debido a que en estos temas están implícitas mayores consideraciones legales, nivel de digitalización de los sistemas existentes, y las capacidades locales de organización y de control.
El desplazamiento laboral no es abordado de manera extensiva en dicho llamado a moratoria, sino más bien las consecuencias de la desestabilización en los mercados laborales. Esto se debe a una razón muy sencilla y respaldada por la historia; la reorganización o redistribución de los requerimientos del mercado laboral provocada por el desarrollo de nueva tecnología no es nada nuevo, pasa todo el tiempo de manera sutíl; y en algunas ocasiones, se producen break throughs debido al surgimiento de alguna innovación cuya aplicación es viable en muchas o todas las industrias. Lo que evidentemente pasará con la Inteligencia Artificial, y en general con la completa transformación digital; que la mayoría de organizaciones en el mundo desarrollado ya han llevado a cabo. Por lo que la reacción más adecuada sería prepararse desde el punto de vista organizacional, comercial y profesional para dicha transición.

Fuente: Canva
En resumen, antes de tomar una posición, cualquiera que ésta sea, recurramos a toda la información disponible al respecto y analicemos los argumentos de todas las partes. Si bien en respetables cadenas como CNN encontrarás artículos donde argumentan que 42% de los CEOs (survey at the Yale CEO Summit 2023) piensan que la IA tiene la posibilidad de destruir a la humanidad en los próximos años, y tienes estos admirados líderes de tecnología llamando mediante cartas abiertas a una pausa, también es cierto que a estas mismas personas no parecen detenerlas sus propias advertencias. De acuerdo a un reportaje del New York Times de abril 27, Elon Musk ha estado aumentando rápidamente su investigación de IA después de romper relaciones comerciales con OpenAI (sí, exacto! él invirtió en la empresa), intentando fundar una nueva empresa llamada X.AI y trayendo a bordo ex expertos de IA de Google Deep Mind para aparentemente crear un rival de Chat GPT.
Entonces recuerden que también para tecnología y especialmente en IA, el informarse es necesario y hoy en día es más fácil que nunca antes.
¿Alguno de ustedes ha firmado la petición de la carta abierta de Musk? Por si acaso aquí está el link si desean leerla, no firmen nada sin antes leer las letras pequeñas 😉

Viviana Ortiz ha desarrollado una amplia experiencia en liderazgo de equipos traduciendo los retos de la innovación tecnológica en valor real. Con dos títulos, uno en Derecho y otro en Ingeniería, un Master en Ciencias y una investigación de doctorado en curso, su pasión es ser un referente y apoyo para las mujeres que buscan abrirse paso en nuevas industrias.