DECODIFICANDO LA INTELIGENCIA ARTIFICIAL (IA)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

En términos sencillos, actualmente la inteligencia artificial es 'Machine Learning' - un "análisis algorítmico (matemático) de enormes cantidades de datos para encontrar patrones a partir de los cuales hacer un alto porcentaje de predicción." (Brookings, 2019)

 

Naturalmente, las máquinas no tienen la capacidad de realizar tareas inteligentes. Sin embargo, la Inteligencia Artificial (IA) permite que adquieran y apliquen conocimientos y habilidades humanas para ofrecer soluciones -a problemas comunes- sin direccionamiento y con mayor rendimiento, eficiencia y precisión. Más aún, por medio del descubrimiento de patrones -en grandes conjuntos de datos- las máquinas seleccionan la mejor alternativa o solución hacia el éxito; generalmente resuelven problemas o realizan cálculos desplegando un conjunto de instrucciones conocidas como algoritmos.

 

La definición moderna de inteligencia artificial (IA) es "el estudio y diseño de agentes inteligentes" donde un agente inteligente es un sistema que percibe su entorno y toma acciones que maximizan sus posibilidades de éxito. 

 

John McCarthy, quien acuñó el término en 1956, lo define como "la ciencia y la ingeniería de la fabricación de máquinas inteligentes".  No obstante, se han propuesto otros nombres para el campo, como inteligencia computacional, inteligencia sintética o racionalidad computacional. 

 

El término inteligencia artificial también se usa para describir una propiedad de máquinas o programas: la inteligencia que demuestra el sistema.  La investigación de IA utiliza herramientas y conocimientos de muchos campos, incluidos la informática, la psicología, la filosofía, la neurociencia, la ciencia cognitiva, la lingüística, la investigación de operaciones, la economía, la teoría de control, la probabilidad, la optimización y la lógica. 

 

Además, la investigación de IA se superpone con tareas como la robótica, sistemas de control, programación, minería de datos, logística, reconocimiento de voz, reconocimiento facial y muchos otros.

 

Inteligencia computacional: La inteligencia computacional implica desarrollo o aprendizaje iterativo (por ejemplo, ajuste de parámetros en sistemas conexionistas); 

el aprendizaje se basa en datos empíricos y está asociado con IA no simbólica, IA desaliñada y computación flexible.  

 

Los temas de inteligencia computacional según la definición de la IEEE Computational Intelligence Society incluyen principalmente:

Redes Neuronales: sistemas entrenables con capacidades de reconocimiento de patrones muy fuertes. 

 

Sistemas difusos: las técnicas de razonamiento bajo incertidumbre se han utilizado ampliamente en los sistemas modernos de control de productos industriales y de consumo; capaz de trabajar con conceptos como 'caliente', 'frío', 'cálido' e 'hirviendo'. 

 

Computación evolutiva: aplica conceptos inspirados biológicamente como poblaciones, mutación y supervivencia del más apto para generar soluciones cada vez mejores al problema.  

 

En fin, se cree que el cerebro humano utiliza múltiples técnicas para formular y verificar los resultados.  Por lo tanto, la IA se preocupa por computadorizar esta teoría en el intento de producir programas para realizar tareas que requieren inteligencia humana.

 

Nota: El texto anterior está extraído del Science Daily, cuyas fuentes de extracción han sido publicada bajo la Licencia de Documentación Libre de GNU.

Tipos de aprendizaje, subconjuntos y procesamiento de datos en la IA:

 

La inteligencia artificial puede ser entrenada de manera supervisada, semi-supervisada, no supervisada, o a través de aprendizaje reforzado. 

 

En aprendizaje supervisado, el conjunto de datos es la colección de ejemplos etiquetados. La meta de este método es utilizar la base de datos para producir un modelo que toma un vector X como entrada y produce información que permite deducir su etiquetado.   

 

En aprendizaje semi-supervisado, el conjunto de datos contiene colección de ejemplos etiquetados y sin etiquetar con el propósito de lograr que el algoritmo compute o produzca (encuentre) el mejor modelo y aproveche información adicional (grandes bases de datos) para mejorar su rendimiento.

 

En aprendizaje sin supervisión, los datos son una recolección de ejemplos sin etiquetar. Por lo general este proceso se utiliza para transformar un vector a un valor que puede ser utilizado para resolver problemas prácticos.

 

Por último, el aprendizaje reforzado es un sub-campo del aprendizaje automático donde la máquina ‘vive’ en un entorno y es capaz de percibir el estado de ese entorno como un vector de características; con la meta de aprender una función que toma el vector de características de una condición como entrada y genera una acción óptima para ejecutar en esa condición. La acción es óptima si maximiza la recompensa promedio esperada

 

Por otro lado, la computarización de modelos estadísticos para resolver problemas prácticos, la recopilación de conjuntos de datos y la construcción algorítmica de modelos estadísticos basado en esos conjuntos de datos, cuenta con una serie de subconjuntos detallados a continuación:    

 

i. Aprendizaje automático
El aprendizaje automático facilita el avance continuo de la informática a través de la
exposición a nuevos escenarios, pruebas y adaptaciones, al tiempo que emplea la
detección de patrones y tendencias para mejorar las decisiones en situaciones
posteriores (aunque no idénticas). 9 Los algoritmos que trabajan en el backend de
muchos de los motores de búsqueda, utilizan aprendizaje automático para mejorar sus
resultados. Es decir, cada vez que ejecutas una búsqueda, los algoritmos en el
backend vigilan cómo respondes a los resultados y asumen si los resultados que se
muestran fueron de acuerdo con la consulta o no coincidieron con el requisito; refinando
así sus resultados hacia próximas ocasiones.


ii. Aprendizaje profundo
El aprendizaje profundo es una colección de algoritmos utilizados en el aprendizaje
automático, utilizados para modelar abstracciones de alto nivel en los datos mediante el
uso de arquitecturas modelo, que se componen de múltiples transformaciones no
lineales. 9 Es parte de una amplia familia de métodos utilizados para el aprendizaje
automático que se basan en el aprendizaje de representaciones de datos. Muchas
empresas ya utilizan aprendizaje profundo para mejorar la experiencia de sus clientes.
Algunos ejemplos viables incluyen plataformas de autoservicio en línea y la creación de
flujos de trabajo confiables. Además, la mayoría de nosotros ya usa chatbots con estas
aplicaciones y mientras maduran, seguiremos utilizándolas con naturalidad.

iii. Reconocimiento de voz
Los sistemas de reconocimiento de voz están diseñados principalmente para reconocer
la voz de la persona que habla. Antes de poder reconocer la voz del locutor, las
técnicas de reconocimiento de voz requieren cierta capacitación en la cual el sistema
subyacente aprenderá la voz, el acento y el tono del locutor. 9 Con la introducción de
esta tecnología, los usuarios ya pueden emitir comandos de voz para iniciar
videoconferencias, acceder a calendarios e imprimir documentos, administrar
dispositivos individuales y compartidos, así como una multitud de otras funciones
comunes en el lugar de trabajo. Además, la introducción de asistentes digitales de
Inteligencia Artificial amplían estas aplicaciones permitiendo su uso a mayor alcance.

 

iv. Sistemas expertos
Los sistemas expertos se desarrollan principalmente utilizando conceptos,
herramientas y tecnologías de inteligencia artificial, y poseen conocimiento experto en
un campo, tema o habilidad en particular. 9 Estos ofrecen el nivel más alto de
experiencia y proporciona eficiencia, precisión y resolución imaginativa de problemas.
Sus algoritmos, reaccionan justo a tiempo interactuando en un período muy razonable
con el usuario, e inferior al requerido por un experto para obtener la solución más
precisa al problema. Una estructura confiable, flexible y eficiente para administrar la
compilación del conocimiento existente, capacita el manejo de problemas y decisiones
desafiantes para brindar mejores soluciones a tiempo real. Actualmente los sistemas
expertos están siendo utilizados desde aplicaciones químicas, hasta predicción de
enfermedades y prometen avances científicos insospechados.

 

v. Procesamiento de lenguaje natural
El procesamiento del lenguaje natural (PNL) es un método para traducir entre lenguajes
humanos y de computadora. Es un método para hacer que una computadora lea
comprensiblemente una línea de texto sin que la computadora reciba algún tipo de pista
o cálculo. En otras palabras, la PNL automatiza el proceso de traducción entre
computadoras y humanos. 9 Por ejemplo, los correctores ortográficos son una forma de
PLN a la que todos ya están acostumbrados. Son discretos, fáciles de usar y reducen
muchos dolores de cabeza, tanto para los usuarios como para los agentes. También,
los PLN se usan para sugerir opciones mediante el autocompletado. Esta
característica, que muchas personas usan a diario y casi esperan cuando buscan algo,
es igual de útil en los sitios web de las empresas y seguirá ofreciendo resultados de
optimización hacia el futuro.

vi. Robótica
La robótica es la industria relacionada con la ingeniería, construcción y operación de
robots, un campo amplio y diverso relacionado con muchas industrias comerciales y
usos de consumo. El campo de la robótica generalmente implica observar cómo
cualquier sistema tecnológico construido físicamente puede realizar una tarea o
desempeñar un papel en cualquier interfaz o nueva tecnología. 9 Un ejemplo de esta
actividad industrial es Sophia, un robot humanoide social que se activó el 14 de febrero
de 2016 e hizo su primera aparición pública en el Festival South by Southwest a
mediados de marzo de 2016. El robot es capaz de mostrar más de 50 expresiones
faciales y participar en entrevistas de alto perfil. En octubre de 2017, Sophia se
convirtió en el primer robot en recibir la ciudadanía de cualquier país y en noviembre de
2017, fue nombrada la primera Campeona de Innovación del Programa de las Naciones
Unidas para el Desarrollo, siendo la primera no humana que recibe un título de
Naciones Unidas.


vii. Visión artificial
La visión artificial es un campo de la ciencia de la computación que funciona para
permitir que las computadoras vean, identifiquen y procesen imágenes de la misma
manera que lo hace la visión humana, y luego proporcionen la salida adecuada. Es
como impartir inteligencia humana e instintos a una computadora. Sin embargo, en
realidad, el permitir que las computadoras reconozcan imágenes de diferentes objetos
es una tarea difícil. 9 Definitivamente China se encuentra a la vanguardia del uso de la
tecnología de reconocimiento facial, en dónde se utiliza para el trabajo policial, los
portales de pago, los puntos de control de seguridad en el aeropuerto e incluso para
dispensar papel higiénico y evitar el robo del papel en el Parque Tiantan en Beijing.
Aunque controversiales, estas aplicaciones siguen ganando terreno en el campo de la
innovación internacionalmente.


viii. Procesamiento de datos
La inteligencia artificial, depende de la arquitectura de información. Es decir, para que
un modelo o subconjunto de IA arroje los resultados esperados, la adquisición, el
procesamiento y el análisis de datos para la implementación de algún código o
algoritmo deben ejecutarse meticulosamente. No obstante, el desarrollo de sistemas
robustos enfrenta grandes retos, en los que se encuentran: 1) un crecimiento de datos
digitalizados mayor a la infraestructura y la arquitectura de estos datos; 2) el
almacenamiento de datos irrelevantes.; 3) el desconocimiento de datos relevantes y su
estructura; 4) el origen y la localización efectiva de datos apropiados y 5) la confianza,
seguridad, discriminación y observación de los sesgos que podrían generar los datos
seleccionados.

La inteligencia artificial, depende de la arquitectura de información.  Es decir, para que un modelo o subconjunto de IA arroje los resultados esperados, la adquisición, el procesamiento y el análisis de datos para la implementación de algún código o algoritmo deben ejecutarse meticulosamente.  No obstante, el desarrollo de sistemas robustos enfrenta grandes retos, en los que se encuentran: 1) un crecimiento de datos digitalizados mayor a la infraestructura y la arquitectura de estos datos; 2) el almacenamiento de datos irrelevantes.; 3) el desconocimiento de datos relevantes y su estructura; 4) el origen y la localización efectiva de datos apropiados y 5) la confianza, seguridad, discriminación y observación de los sesgos que podrían generar los datos seleccionados. 

 

>>Referencias


  

Enlaces
CONTACTO
Síguenos
  • LinkedIn - GENIA
  • YouTube - GENIA
  • Instagram - GENIA
  • Twitter - GENIA
  • Facebook - GENIA