top of page

El futuro nos alcanzó

  • Foto del escritor: Javier Sánchez Galicia
    Javier Sánchez Galicia
  • 9 jun
  • 4 Min. de lectura

Actualizado: hace 7 días

Por Javier Sánchez Galicia La frase atribuida a Hemingway: “primero ocurre lentamente, luego de repente”, podría aplicarse al crecimiento vertiginoso en el uso de la Inteligencia Artificial. Hoy tenemos acceso a los datos que se generan en la interacción entre las distintas comunidades y es así como se puede acceder a la información sobre las condiciones de vida de los seres humanos en casi todos los rincones del mundo (Rodríguez, 2022). Los datos y la IA existen prácticamente en todo lo que usamos y hacemos: en los teléfonos, los automóviles, las carreteras, los sistemas de agua potable, los servicios de salud, el sector agropecuario, los asistentes virtuales (como Alexa y Siri), los traductores automáticos, y en una infinidad de actividades de nuestra vida diaria.


Por otra parte, con el análisis de conjuntos de macrodatos se pueden ubicar nuevas correlaciones para detectar tendencias de negocios. Por ejemplo, se estima que el 73 % de las empresas pierde tiempo en tareas que no agregan valor y que la IA podría automatizar, mientras los empleados que utilizan esta tecnología reportan una mejora del 80 % en su productividad. También se pueden prevenir enfermedades como la diabetes, utilizando redes neuronales recurrentes (long-short term memory, lstm), para predecir el aumento en los niveles de glucosa de un paciente (Mosquera, 2023). Otro uso cada vez más extendido es el combate a la delincuencia a partir del análisis predictivo: por ejemplo, mediante el machine learning, se ha estudiado la frecuencia de robos y asaltos en zonas peligrosas de ciudades como Bogotá, en Colombia (Arboleda, 2023).

El aprovechamiento del big data ha sido posible debido a la construcción de mecanismos capaces de leer la enorme cantidad de datos, su velocidad y variabilidad, a costos cada vez más accesibles. En esta data encontramos patrones e información con un valor al cual hace apenas un par de décadas era imposible acceder, por la gran cantidad de trabajo y el alto grado de computación y especialización necesarios para extraerlos. En la actualidad, el acceso a la nube de datos a través de software de código abierto —como el caso de DeepSeek—, ponen el procesamiento de los macrodatos al alcance de quienes tienen menos recursos. La era de los macrodatos a la que hemos ingresado de manera vertiginosa, marca el momento en el que somos capaces de analizar la información que nos proporcionan todo tipo de dispositivos conectados a internet, para transformarlos en predicciones y conocimiento procesable. Así, todo ello convierte al ser humano en una “inteligencia aumentada” (Rodríguez, 2022).


Los algoritmos gobiernan nuestra vida

Hoy en día, se utiliza con mayor frecuencia el término ciencia de datos. Sin embargo, hacia los años sesenta, se le conocía como estadística y luego, a finales de los noventa, se popularizó el concepto minería de datos. Su independencia, en cuanto a definición se refiere a tres aspectos que la caracterizan: el diseño, la recopilación y el análisis de los datos. La ciencia de datos —como se le denomina desde hace un par de décadas— de manera más frecuente y fuera del ámbito académico, se utiliza para estudiar los datos de cuatro maneras principales:

  • Análisis descriptivo. Se caracteriza por las visualizaciones de datos: los gráficos circulares, de barras o líneas; las tablas o las narraciones generadas. Por ejemplo, en una reserva de vuelos, el análisis descriptivo mostraría los picos y caídas de las reservas, así como los meses de alto rendimiento del servicio. 


  • Análisis de diagnóstico. Es un examen profundo o detallado de datos para entender un acontecimiento y se caracteriza por la minería de datos o las correlaciones. En el mismo ejemplo de los vuelos, se podría hacer un análisis pormenorizado de un mes con un rendimiento particularmente alto para entender el mejor pico de reservas.


  • Análisis predictivo. Utiliza los datos históricos para hacer previsiones sobre los patrones de datos que pueden producirse en el futuro. Se caracterizan por técnicas como el machine learning, la previsión, la coincidencia de patrones y el modelado predictivo. En cada una de estas técnicas, se entrena a las computadoras para aplicar ingeniería inversa a las conexiones de causalidad en los datos. De tal forma, siguiendo el mismo ejemplo, el equipo de servicios de vuelo podría predecir patrones de reserva del año siguiente al empezar cada ciclo para, así, poder anticiparse a las futuras necesidades de viaje de los clientes. 


  • Análisis prescriptivo. No sólo predice lo que es probable que ocurra, sino que sugiere una respuesta óptima para lograr ese resultado. Utiliza el análisis de gráficos, la simulación, el procesamiento de eventos complejos, las redes neuronales y los motores de recomendación del machine learning. Regresando al ejemplo de reserva en los vuelos, un científico de datos podría proyectar los resultados de las reservas de diferentes niveles de gasto en varios canales de marketing. Esto le concedería a la aerolínea una mayor confianza en sus decisiones al maximizar la ventaja en un pico de reservas de vuelos.


Es un hecho que los algoritmos gobiernan nuestras vidas. Nos ayudan a encontrar no solamente un vuelo de avión, sino también a seleccionar libros, películas, trabajos y citas, gestionar inversiones y encontrar la ruta más accesible en nuestro camino a casa o a la oficina. Los algoritmos aprenden de los rastros de datos que vamos dejando en el mundo digital. Ahora bien, un algoritmo es un conjunto de instrucciones o reglas definidas: no-ambiguas, ordenadas y finitas, que permite solucionar un problema, realizar un cómputo, procesar datos y llevar a cabo diversas tareas (Brassard y Bratley, 1997). En los laboratorios de investigación y en las universidades más importantes del mundo se libra una carrera, cada vez más acelerada, por diseñar algoritmos nuevos, mejores, capaces de descubrir cualquier tipo de conocimiento a partir de los datos, y , desde luego, hacer cualquier cosa antes de que nosotros la pidamos.


Referencias:

Rodríguez, P. (2022). Inteligencia artificial: Cómo cambiará el mundo (y tu vida). Ediciones Culturales Paidós.

Mosquera, A. (2023). Experimentos con redes neuronales recurrentes LSTM para la predicción del nivel de glucosa de pacientes con diabetes. Revista Ontare, 11(1).

Arboleda, J. S. (2023). Hurto a personas en la ciudad de Medellín: Análisis predictivo de la cantidad de casos en diferentes zonas de la ciudad, a partir de modelos de machine learning, implementando técnicas de MLOPS [Proyecto de grado, Universidad EAFIT].

Brassard, G. y Bratley, P. (1997). Fundamentos de algoritmia. Prentice Hall.





 
 
 

Comments


© 2023 Javier Sánchez Galicia

bottom of page