Mientras el aprendizaje profundo (deep-learning) educa a las máquinas para procesar datos como el cerebro humano, la llamada “caja negra” que esconde las arbitrarias predicciones de los algoritmos de inteligencia artificial (IA) preocupa cada vez más a los expertos en este campo. La «caja negra» aparece cuando los desarrolladores de estos sistemas dejan de comprender lo que ocurre en los callejones que abre la IA en su recorrido lógico, algo que obstaculiza el control de sus acciones. Incluso, muchos temen que esta falta de transparencia de lugar a consecuencias irreversibles, especialmente si esta inteligencia sintética consigue habilidades para las que no fue preparada o adquiere total autonomía. La alarma se encendió semanas atrás, cuando un grupo de ingenieros de Google estaba programando un software de IA y se sorprendieron al descubrir que, sin ninguna iniciación previa, había aprendido a conectar un nuevo idioma. La rebelión de la inteligencia artificial, el gran temor de los expertos, Foto REUTERS El director ejecutivo de Google, Sundar Pichai, indicó que esta capacidad de los programas de IA de generar habilidades u ofrecer respuestas de forma inesperada es lo que se conoce como la «caja negra». Lejos de entrar en pánico, Pichai agregó “tampoco creo que entendamos completamente cómo funciona la mente humana”. Y llamó a los especialistas de distintas áreas para que se sumen a la discusión, con el objeto de volver el proceso menos nebuloso. Un camino sin retorno Para algunos, , la inteligencia artificial alcanzó un punto sin retorno. Foto REUTERS Algunos teóricos entienden que se alcanzó un punto de inflexión en el que ciertos tipos de IA ya han superado a la mente humana. El problema es que la condición finita del hombre es incapaz de abarcar lo infinito: la IA avanzada. Un ejemplo de IA «infinita» sería ChatGPT, que puede escribir código funcional y ensayos de nivel universitario. También, arriesgar diagnósticos médicos, crear juegos basados en texto y explicar conceptos científicos en múltiples niveles de dificultad. “Los modelos de Machine Learning se testean para determinar si funcionan correctamente y cuál es el grado de equivocación que tienen. Como los sistemas con IA no son infalibles: la máquina sugiere una decisión o solución y el humano es quien decide si se cumple”, advierte Marcela Riccillo, doctora en ciencias de la computación, …

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here