Los gigantes tecnológicos invierten miles de millones en IA, pero la expectativa no siempre coincide con la realidad

inteligencia artificial 4 pixabay
La competencia entre las empresas ha impulsado los rápidos avances de la IA y ha dado lugar a demostraciones cada vez más llamativas que han captado la imaginación del público y atraído la atención sobre la inteligencia artificial.

Google, Meta y OpenAI están invirtiendo fuertemente en esta tecnología, que cada vez más captura la imaginación del público.


Tras años en los que las empresas han hecho hincapié en el potencial de la inteligencia artificial, los investigadores afirman que ha llegado el momento de reajustar las expectativas.

Con los recientes avances tecnológicos, las empresas han desarrollado más sistemas que pueden producir conversaciones, poesía e imágenes aparentemente humanas. Sin embargo, investigadores y especialistas en ética de la IA advierten que algunas empresas están exagerando sus capacidades, lo que, según ellos, está generando un malentendido generalizado y distorsionando la opinión de los responsables políticos sobre el poder y la falibilidad de esta tecnología.

“Estamos desequilibrados”, comentó Oren Etzioni, director ejecutivo del Instituto Allen de Inteligencia Artificial, una organización de investigación sin fines de lucro con sede en Seattle.

Él y otros investigadores afirman que ese desequilibrio ayuda a explicar por qué muchos se dejaron influir a principios de este mes cuando un ingeniero de Google, de Alphabet Inc., argumentó, basándose en sus creencias religiosas, que uno de los sistemas de inteligencia artificial de la empresa debería ser considerado sintiente.

El ingeniero dijo que el chatbot se había convertido efectivamente en una persona con derecho a que se le pidiera el consentimiento para los experimentos que se realizaban con él. Google lo suspendió y rechazó su afirmación, argumentando que los especialistas en ética y tecnología de la empresa han estudiado la posibilidad y la han descartado.

La creencia de que la IA se está convirtiendo -o podría llegar a ser- en algo consciente sigue siendo marginal en la comunidad científica en general, señalaron los investigadores.

En realidad, la inteligencia artificial engloba una serie de técnicas que en gran medida siguen siendo útiles para una serie de logísticas de back-office no cinematográficas, como el procesamiento de datos de los usuarios para orientarlos mejor con anuncios, contenidos y recomendaciones de productos.

En la última década, empresas como Google, la matriz de Facebook, Meta Platforms Inc. y Amazon.com Inc. han invertido mucho en el avance de estas capacidades para impulsar sus motores de crecimiento y beneficios.

Google, por ejemplo, utiliza la inteligencia artificial para analizar mejor las complejas peticiones de búsqueda, lo que le ayuda a ofrecer anuncios y resultados web relevantes.

También han surgido algunas startups con ambiciones más grandes. Una de ellas, llamada OpenAI, ha recaudado miles de millones de dólares de donantes e inversores, entre ellos el director ejecutivo de Tesla Inc., Elon Musk, y Microsoft Corp., en un intento de lograr la llamada inteligencia general artificial, un sistema capaz de igualar o superar todas las dimensiones de la inteligencia humana. Algunos investigadores creen que esto está a décadas de distancia, si no es que es inalcanzable.

La competencia entre estas empresas para superarse unas a otras ha impulsado los rápidos avances de la IA y ha dado lugar a demostraciones cada vez más llamativas que han captado la imaginación del público y atraído la atención sobre la tecnología.

Margaret Mitchell was fired as co-leader of Google’s ethical AI team after she wrote a critical paper; Google said it was for sharing internal documents with outsiders.
Margaret Mitchell fue despedida como codirectora del equipo de IA de ética de Google después de que escribiera un artículo crítico; Google dijo que fue por compartir documentos internos con personas ajenas a la empresa. FOTO: CHONA KASINGER/ BLOOMBERG NEWS

El DALL-E de OpenAI, un sistema capaz de generar obras de arte a partir de indicaciones del usuario, como “McDonalds en órbita alrededor de Saturno” u “osos con ropa deportiva en un triatlón”, ha generado en las últimas semanas muchos memes en las redes sociales.

Google, por su parte, ha seguido con sus propios sistemas de generación de arte basado en texto.

Aunque estos resultados pueden ser espectaculares, un grupo creciente de expertos advierte que las empresas no están moderando adecuadamente la expectativa.

Margaret Mitchell, que codirigió el equipo de IA de ética de Google antes de que la empresa la despidiera por escribir un artículo crítico sobre sus sistemas, dijo que parte de la venta del la empresa a los accionistas es porque es la mejor del mundo en IA.

Mitchell, que ahora trabaja en una empresa de IA llamada Hugging Face, y Timnit Gebru, la otra codirectora de IA de ética de Google -que también fue despedida- fueron de las primeras personas en advertir sobre los peligros de la tecnología.

En su último documento escrito en la empresa, advertían que las tecnologías podrían causar daños en ocasiones, ya que sus capacidades similares a las humanas implican tener el mismo potencial de fracaso que las personas. Entre los ejemplos citados: un error de traducción del sistema de IA de Facebook que tradujo “buenos días” en árabe como “hazles daño” en inglés y “atácalos” en hebreo, lo que llevó a la policía israelí a detener al palestino que publicó el saludo, antes de darse cuenta de su error.

Timnit Gebru, a prominent AI ethicist and the other co-leader of Google’s ethical AI team, was also forced out.
Timnit Gebru, una destacada especialista en ética de la IA y la otra colíder del equipo de IA ética de Google, también se vio obligada a abandonar. FOTO: JEFF CHIU/ ASSOCIATED PRESS

Los documentos internos revisados por The Wall Street Journal como parte de la serie The Facebook Files, publicada el año pasado, también revelaron que los sistemas de Facebook no identificaban sistemáticamente los videos de tiroteos en primera persona y los desplantes racistas, eliminando sólo una parte del contenido que infringe las normas de la empresa.

Sin embargo, Facebook anunció que las mejoras en su IA han sido responsables de reducir drásticamente la cantidad de discursos de odio y otros contenidos que violan sus normas.

Google dijo que despidió a Mitchell por compartir documentos internos con personas ajenas a la empresa. A su vez, el jefe de IA de la empresa comentó a los empleados que el trabajo de Gebru no era lo suficientemente riguroso.

Los despidos resonaron a través de la industria de la tecnología, provocando a miles dentro y fuera de Google para denunciar lo que llamaron en una petición su “censura de investigación sin precedentes”. El director ejecutivo Sundar Pichai aseguró que trabajaría para restaurar la confianza en estos temas y se comprometió a duplicar el número de personas que estudian la ética de la IA.

La brecha entre la percepción y la realidad no es nueva. Etzioni y otros señalaron el marketing en torno a Watson, el sistema de IA de International Business Machines Corp (IBM). que se hizo ampliamente conocido tras superar a los humanos en el concurso “Jeopardy”. Tras una década y miles de millones de dólares de inversión, la empresa anunció el año pasado que estaba estudiando la venta de Watson Health, una unidad cuyo producto estrella se suponía que ayudaría a los médicos a diagnosticar y curar el cáncer.

Lo que está en juego se ha intensificado porque la IA está ahora incrustada en todas partes e implica a más empresas cuyo software -correo electrónico, motores de búsqueda, noticias, asistentes de voz- impregna nuestras vidas digitales.

Tras las recientes afirmaciones de su ingeniero, Google ha rechazado la idea de que su chatbot sea sensible.

Los chatbots y otras herramientas conversacionales de la compañía “pueden tratar cualquier tema fantástico”, declaró el representante de Google, Brian Gabriel. “Si les preguntas cómo es ser un dinosaurio helado, pueden generar texto sobre el derretimiento y el rugido, etc.”. Sin embargo, eso no es lo mismo que la sintiencia, añadió.

Blake Lemoine, el ingeniero ahora suspendido, dijo en una entrevista que había recopilado cientos de páginas de diálogo de experimentos controlados con un chatbot llamado LaMDA para apoyar su investigación, y que estaba presentando con precisión el funcionamiento interno de los programas de Google.

“No se trata de una exageración de la naturaleza del sistema”, comentó Lemoine. “Intento, con el mayor cuidado y precisión posible, comunicar dónde hay incertidumbre y dónde no”, agregó.

Lemoine, que se describe a sí mismo como un místico que incorpora aspectos del cristianismo y otras prácticas espirituales, como la meditación, ha dicho que habla en calidad de religioso cuando describe a LaMDA como sensible.

Elizabeth Kumar, estudiante de doctorado en ciencias de la computación de la Universidad de Brown que estudia la política de la IA, afirma, por su parte, que la brecha de percepción se ha colado en los documentos políticos. Las recientes normativas y propuestas de regulación locales, federales e internacionales han tratado de abordar el potencial de los sistemas de IA para discriminar, manipular o causar daños de cualquier otro modo, dando por sentado que el sistema es muy competente. En gran medida, han dejado de lado la posibilidad de daño por el simple hecho de que tales sistemas de IA no funcionan, lo cual es lo más probable, aseguró.

Etzioni, que también es miembro del Grupo de Trabajo Nacional de Recursos de Investigación sobre IA del gobierno de Biden, señaló que los hacedores de políticas a menudo tienen dificultades para comprender los problemas. “Por mis conversaciones con algunos de ellos, puedo decir que tienen buenas intenciones y hacen buenas preguntas, pero no están muy bien informados”, explicó.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.