top of page

¿Qué es la Inteligencia Artificial?

  • Foto del escritor: Javier Sánchez Galicia
    Javier Sánchez Galicia
  • 23 jun
  • 5 Min. de lectura

Actualizado: 1 jul

­­La IA es la capacidad de los ordenadores para utilizar algoritmos, aprender de los datos y tomar decisiones en un proceso que busca emular y superar a la mente humana. La Comisión Europea (2019) define a la IA como un término genérico que se refiere a:


cualquier sistema diseñado por humanos que, dado un objetivo complejo, actúa en

el ámbito físico o digital percibiendo su ambiente, a través de la adquisición de datos,

estructurados o no estructurados, razonando sobre el conocimiento o procesando la

información, para decidir la mejor acción a tomar para alcanzar el objetivo dado

(p. 6).


El campo de acción de la IA es amplio e incluye diversas disciplinas como la informática, análisis predictivo y estadístico, creación de hardware y software específicos, análisis de lenguaje natural, redes neuronales artificiales y los procesos de comunicación. En términos operativos, el conjunto de tecnologías que utiliza la IA se basa principalmente en aprendizaje automático (machine learning), en un plano básico, y en el aprendizaje profundo (deep learning) para generar modelos de procesamiento de datos más avanzado (Ver gráfico 1).


(Gráfico 1)

 El pilar sobre el cual se apoya la Inteligencia Artificial es la cuantiosa base de datos y la capacidad de computarla de manera eficiente y rápida. Los sistemas soportados por IA aprenden y mejoran de manera constante a través del análisis de grandes cantidades de datos a partir de identificar los patrones de interacción humana. Este proceso de aprendizaje se apoya en algoritmos que, tras un minucioso análisis lingüístico, son convertidos en estructuras binarias, etiquetados y clasificados para facilitar la categorización de datos y la elaboración de análisis predictivos.

Cada vez con mayor frecuencia escucharemos sobre la necesidad de que médicos, educadores, abogados o administradores públicos comprendan la urgencia de aprender a utilizar las herramientas que ofrece la Inteligencia Artificial.

Para entender esta evolución, conviene revisar brevemente las etapas de su desarrollo. Un caso paradigmático es Deep Blue, la máquina de IBM que, en 1997, derrotó al campeón mundial de ajedrez, Garry Kasparov. Se trata de un ejemplo clásico de lo que se conoce como una máquina reactiva: sistemas que responden a estímulos siguiendo reglas preprogramadas, sin memoria y sin la capacidad de aprender a partir de datos nuevos. En contraste, hoy nos encontramos ante una generación de sistemas de IA clasificados como de memoria limitada, capaces de mejorar su desempeño mediante el entrenamiento con nuevos conjuntos de datos.

Una de las formas más extendidas de clasificar los tipos de Inteligencia Artificial se basa justamente en aquello que la máquina es capaz de hacer. La inteligencia artificial generativa puede crear contenidos originales como texto, imágenes, video, audio o código software, en respuesta a una instrucción o solicitud del usuario. Los modelos de este tipo de inteligencia artificial aprenden los patrones y la estructura de sus datos de entrenamiento de entrada y, luego, generan nuevos datos con características similares. La diferencia con otros tipos de IA, como la analítica o la discriminativa, es que la generativa salta de las capacidades cognitivas a las capacidades creativas; la máquina produce información nueva, en lugar de limitarse a reconocer, analizar o clasificar el contenido existente.


Las computadoras aprenden


El machine learning (aprendizaje automático) es una rama de la Inteligencia Artificial que permite a las máquinas aprender diversas tareas sin ser programadas previamente o de manera específica. Su funcionamiento se basa en el análisis predictivo y el reconocimiento de patrones a partir del procesamiento de grandes volúmenes de datos. Así, los algoritmos pueden mejorar continuamente su desempeño para afrontar y resolver incluso tareas para las cuales no fueron diseñados. Las fases son las siguientes: primero, en el proceso de decisión se realizan cálculos basados en los datos e identifica patrones; luego, a través de la función de error, se mide la precisión de la decisión al compararla con ejemplos conocidos; y, finalmente, mediante la actualización y optimización se analiza el error y se ajusta la toma de decisiones.


El aprendizaje automático es el proceso que alimenta muchos de los servicios que utilizamos en la actualidad: las recomendaciones en Netflix, YouTube y Spotify, buscadores como Google, las redes sociales de noticias en Facebook y X, los asistentes de voz como Siri y Alexa, entre otros. En todos estos casos, cada plataforma o aplicación, recopila la mayor cantidad posible de información sobre los usuarios: los géneros más gustados, los enlaces que se eligen y le dan clic, las publicaciones a las que reaccionan. El aprendizaje automático entra en acción cuando se trata de predecir aquello que podría gustar más a un usuario, y a partir de ahí, continuar afinando sus sugerencias. Aunque en esencia se trata de un proceso relativamente básico —identificar patrones y aplicarlos—, lo cierto es que esta lógica simple sostiene buena parte del funcionamiento del mundo digital contemporáneo. 


De acuerdo con la MIT Technology Review (ver figura 2), el aprendizaje automático presenta tres variedades diferentes:


  • Aprendizaje supervisado. Es el más frecuente en su uso y en esta modalidad, los datos están etiquetados para indicar a la máquina qué patrones buscar;


  • Aprendizaje no supervisado. A diferencia del anterior, en este caso los datos no están etiquetados, y es la propia máquina la que, de forma autónoma, intenta descubrir estructuras ocultas o agrupamientos dentro de la información. Aunque menos visible en sus aplicaciones, esta técnica es ampliamente empleada en campos como la ciberseguridad;


  • Aprendizaje por refuerzo. Se basa en un mecanismo de ensayo y error, donde el algoritmo explora diferentes caminos para alcanzar un objetivo específico. A lo largo del proceso, recibe recompensas o penalizaciones según los resultados obtenidos, para afinar su comportamiento progresivamente.


    (Grafico del MIT)

Algoritmos que se entrenan a sí mismos


El aprendizaje profundo utiliza redes neuronales artificiales para simular el complejo poder de la toma de decisiones del cerebro humano. La diferencia entre el aprendizaje profundo y el aprendizaje automático es la estructura de la arquitectura de la red neuronal subyacente; el aprendizaje profundo llega a utilizar cientos o miles de capas para entrenar los modelos. Otra diferencia es que, mientras los modelos de aprendizaje supervisado requieren datos de entrada estructurados y etiquetados para obtener resultados precisos, los modelos de aprendizaje profundo pueden emplear el aprendizaje no supervisado, de modo que pueden incluso evaluar y refinar sus resultados para aumentar la precisión.

Una de las características fundamentales del aprendizaje profundo es su capacidad para ejecutar tareas tanto analíticas como físicas sin intervención humana. Se trata de una rama avanzada de la ciencia de datos que impulsa múltiples aplicaciones y servicios orientados a la automatización inteligente. Gracias a ello, diversos productos y herramientas de uso cotidiano —como los asistentes digitales, los controles remotos con reconocimiento de voz, los sistemas de detección de fraude en tarjetas de crédito, los vehículos autónomos o la propia IA generativa— forman ya parte del paisaje tecnológico actual.

En el sector financiero, por ejemplo, las empresas han comenzado a incorporar herramientas de IA generativa con el objetivo de ofrecer un mejor servicio al cliente al tiempo que reducen costos operativos. Entre sus aplicaciones más frecuentes se encuentran los chatbots capaces de generar recomendaciones personalizadas y responder consultas; los sistemas automatizados para la aprobación de préstamos en el ámbito FinTech, especialmente útiles en países en desarrollo; la detección ágil de fraudes financieros; y el acceso a asesoría financiera segura, precisa y a bajo costo.

Cabe destacar que los modelos generativos no son una invención reciente. Sus formas más primitivas se han utilizado durante décadas en el campo de la estadística para facilitar el análisis de datos numéricos.

Comments


© 2023 Javier Sánchez Galicia

bottom of page