Categorías
Desarrollo IT Desarrollo Web

¿Qué tan lista es la Inteligencia Artificial?

Cada vez confiamos más en la Inteligencia Artificial para la toma de decisiones. Sin embargo, ¿deberíamos hacerlo?

La inteligencia artificial promete tomar decisiones cada vez más importantes en el futuro. Ante esta tendencia, las personas deben estar también cada vez más conscientes sobre las limitaciones de estas tecnologías y los peligros que entraña.

A diferencia de las preocupaciones de Elon Musk sobre la posibilidad de que los humanos sean remplazados por las máquinas cada vez más tareas hasta ser relegados a gatos domésticos, las IA presenta problemas de otra índole.

Los problemas de la IA no forman parte de historias de ciencia ficción. Estos problemas son reales y, si no somos precavidos, serán cada vez más comunes.

En el New York Times, el reportero Kashmir Hill mostró que mucha de la tecnología que se utiliza en la actualidad es bastante tonta, aunque creemos que es inteligente. Y esto ha provocado problemas innecesarios a muchos individuos.

Uno de estos casos es el de Robert Julian-Borchak Williams, un hombre negro en Michigan que fue acusado de robar en tiendas. La acusación se debió a un trabajo policial defectuoso que se basaba en tecnología de reconocimiento facial defectuosa.

Robert Julian-Borchak Williams fue arrestado injustamente por problemas de la IA reconociendo rostros.

El software utilizado por la policía mostró la foto de la licencia de conducir de Williams entre las posibles coincidencias con el hombre en las imágenes de vigilancia, lo que condujo al arresto de Williams en un crimen que no cometió.

El reportero mencionó en una entrevista que la policía debe usar la identificación de reconocimiento facial solo como una pista de investigación. Pero en cambio, las personas tratan el reconocimiento facial como una especie de magia. Y es por eso que tienes un caso en el que alguien fue arrestado en base a un software defectuoso combinado con un trabajo policial inadecuado.

Pero los humanos, no solo las computadoras, identifican erróneamente a las personas en casos criminales. El testimonio de testigos ha llevado también en muchas ocasiones a problemas al reconocer el rostro de alguien. Ese ha sido un argumento de venta para muchas tecnologías de reconocimiento facial.

Sin embargo, las máquinas no reconocen rostros mejor que los humanos. Un estudio federal de algoritmos de reconocimiento facial encontró que están sesgados e identifican erróneamente a las personas de color a tasas más altas que las personas blancas.

El estudio incluyó los dos algoritmos utilizados en la búsqueda de imágenes que llevaron al arresto de Williams.

Algunas veces el algoritmo es bueno y otras es malo, y no siempre hay una buena manera de notar la diferencia. Y, por lo general, no se exige que los encargados de la formulación de políticas, el gobierno o la policía veten la tecnología.

Las compañías que venden software de reconocimiento facial dicen que no ofrece una “combinación” perfecta. Da una puntuación de la probabilidad de que las imágenes faciales en las bases de datos coincidan con la que busca. Las compañías de tecnología dicen que nada de esto es causa probable de arresto. (Al menos, así es como lo hablan con un periodista de The New York Times).

Pero en el terreno, los oficiales ven una imagen de un sospechoso junto a una foto de la coincidencia más probable, y parece ser la respuesta correcta. He visto que el reconocimiento facial funciona bien con algunas imágenes de primer plano de alta calidad. Pero generalmente, los oficiales de policía tienen videos granulados o un boceto, y las computadoras no funcionan bien en esos casos.

Se siente como si supiéramos que las computadoras tienen fallas, pero aún creemos en las respuestas que escupen.

Escribí sobre el propietario de una granja de Kansas que fue acosado por la policía y visitantes al azar debido a una falla en el software que mapea las ubicaciones de las personas desde sus direcciones de Internet. La gente pensaba incorrectamente que el software de mapeo era perfecto. El reconocimiento facial tiene el mismo problema. Las personas no profundizan en la tecnología y no leen la letra pequeña sobre las inexactitudes.

Categorías
Desarrollo IT

Mujeres en IA: Una iniciativa de Microsoft

Una iniciativa de Microsoft busca inspirar a las mujeres para trabajar en proyectos tecnológicos relacionados con la inteligencia artificial (IA). Las jóvenes pasaron un fin de semana en San Francisco y Seattle para resolver problemas creativos a través del poder de la inteligencia artificial. Los dos eventos fueron parte de un programa de campamento de verano de IA organizado por Microsoft.

Este programa comenzó en 2018 en Atenas. Desde entonces, la compañía de tecnología a ampliado su alcance con eventos en Londres a finales del mismo año y en Nueva York en 2019. En el video, se muestra una recopilación de los tres eventos en Estados Unidos.

“Me ha impresionado no solo la disposición de estas jóvenes de pasar todo un fin de semana para aprender y adoptar esta oportunidad, sino también por la calidad de los proyectos”, comentó Didem Un Ates, una de los organizadoras del programa y directora para IA dentro de Microsoft. “Son solo dos días, pero lo que se les ocurre siempre nos deja con la boca abierta”.

A pesar de su edad, las niñas trabajaron en proyectos con impacto global que buscan ayudar a alcanzar las Metas de Desarrollo Sustentable de las Naciones Unidas, consideradas como las más complicadas y de más alta prioridad para el mundo. Como resultado de estos proyectos de fin de semana, se presentaron docenas de innovadores productos.

La iniciativa de estas jóvenes mujeres pueden resolver problemas tan diversos como la contaminación de los océanos, necesidades alimenticias, salud mental, acné y cambio climático.

En los eventos de Estados Unidos asistieron 129 chicas que ahora quieren seguir carreras que ayuden a resolver esos problemas. Ahora se ven a sí mismas como “Alice”, una mascota creada por el equipo del proyecto para representar las cualidades que las jóvenes poseen que se prestan a cambiar el mundo a través de IA.

Los organizadores planean ampliar el alcance de estos eventos, para que las jóvenes de todas partes del mundo puedan aprender sobre las posibilidades que tienen de seguir carreras en tecnología.

Categorías
Desarrollo IT

La IA ya escribe ciencia ficción y noticias falsas

Los avances actuales de la inteligencia artifical la hacen una de las tecnologías que impactará con más fuerza en la cuarta revolución industrial. Las empresas que la integren en sus procesos de trabajo tendrán una ventaja competitiva ante las que aún no se han decidido hacerlo, y organismos internacionales calculan que esta tendrá un importante impacto para el aumento del Producto Interno Bruto (PIB) en Latinoamérica.

Al mismo tiempo en que esta tecnología muestra avances indiscutibles, más personas y organismos expresan preocupación por el uso que podría dársele a estas tecnologías. Estas preocupaciones van desde amenazas a la seguridad informática hasta preocupaciones sobre cómo podrían afectar a los puestos de trabajo. 

Sin embargo, recientemente han surgido nuevas preocupaciones con esta tecnología que tienen que ver más sobre cómo puede ser utilizada para crear noticias falsas en el mundo.

Noticias falsas hechas por Inteligencia Artificial

Existe una creciente preocupación por las noticias falsas difundidas de manera viral y orgánica por las personas en las redes sociales. El peligro de la desinformación crece ahora con la posibilidad de que la Inteligencia Artificial cree noticias falsas de manera automática.

Esta posibilidad hizo que el instituto de investigación en inteligencia artificial OpenAI decidiera no publicar en su totalidad un programa que escribe noticias falsas

El MIT Technology Review publicó en febrero el descubrimiento de los investigadores de este instituto. Ellos probaron que un algoritmo lingüístico para propósitos generales puede ser entrenado con una gran cantidad de textos de la web que le permiten hacer traducciones, responder preguntas y hacer otras tareas útiles. Sin embargo, pronte se dieron cuenta que esta tecnología podía ser utilizada también para crear contenido abusivo

“Empezamos a probarla y nos dimos cuenta rápidamente que era posible generar contenido malicioso de forma mucho más fácil”

Jack Clark, Director de Políticas en OpenAI

El programa puede funcionar con tan solo poner una frase como “Rusia declara la guerra a Estados Unidos después de que accidentalmente Trump…” y el algoritmo de procesamiento lingüístico hace el resto del trabajo.

Para Clark, este programa muestra como la IA puede ser utilizada para generar noticias falsas convicentes, así como publicaciones para las redes sociales o la generación de contenidos. Al equipo de OpenAI le preocupa que esta herramienta pueda ser utilizada por quienes niegan los informes sobre el cambio climático o para generar escándalos en épocas de elecciones.

En poco tiempo, la inteligencia artificial será capaz de producir noticias falsas, twits ofensivos o comentarios ofensivos que tengan la capacidad de ser más convincentes. 

“Está muy claro que si esta tecnología madura —y le doy entre uno o dos años—, esta podrá ser utilizada para la desinformación y la propaganda”.

Jack Clark, Director de Políticas en OpenAI

OpenAI intenta ir un paso adelante en estos escenarios. El equipo de investigación no solo hace investigación en este campo, sino que también juega un rol activo ante los riesgos potenciales de la inteligencia artificial. Este organismo participó en la creación de un informe publicado en 2018 donde se señalan los riesgos de esta tecnología, incluyendo los riesgos para la desinformación.

Las preocupaciones sobre cómo puede ser utilizada esta tecnología en el futuro hizo que OpenAI publicara solamente una versión simplificada del algoritmo.

Otros peligros de la IA

En ocasiones anteriores, OpenAI ha alertado sobre la necesidad de mantener las investigaciones en IA en secreto por sus potenciales peligros. Esta postura la sostuvo en un estudio publicado en 2018 junto con las Universidades de Oxford y Cambridge, además de la Electronic Frontier Foundation. 

La IA tiene el potencial de mejorar los procesos de la industria y volver más productiva a la economía. Sin embargo, esta tecnología también crea nuevas oportunidades para criminales o gobiernos opresivos.

Entre los riesgos que han sido señalados está la posibilidad de crear scams más inteligentes para el robo de información e identidad, malwares que se dispersen como epidemia, robots utilizados para matar y la posibilidad de crear un panóptico que monitoree el comportamiento de todo el mundo.

Toda nueva tecnología siempre ha generado nuevas preocupaciones

Estos escenarios se suman a las preocupaciones que ya existen sobre los puestos de trabajos que pueden ser eliminados por esta tecnología. Los derroteros que tome en el futuro dependerá de que nos adelantemos a los escenarios más catastróficos. 

Para el billonario chino Jack Ma, las preocupaciones por las nuevas tecnologías han sido una constante en los últimos 200 años. En la World Artificial Intelligence Conference celebrada a finales de agosto de 2019 en Shangai, el fundador del ecommerce Alibaba mencionó que “En cada revolución tecnológica, las personas comienzan a preocuparse. En los últimos 200 años, nos hemos preocupado de que la nueva tecnología vaya a tomar nuestros trabajos”.

En el pasado, Jack Ma fue defensor de la jornada laboral 996 en China, que promueve que se trabaje 12 horas cada seis semanas en las empresas tecnológicas. Sin embargo, en la conferencia en Shangai, donde también estuvo presente Elon Musk, Ma afirmo que en el futuro estas jornadas laborales no serán necesarias y que las personas podrán trabajar cada vez menos. “Yo creo que en el futuro las personas podrán trabajar tres días a la semana, cuatro horas al día”.

“Yo creo que gracias a la inteligencia artifical, las personas tendrán más tiempo para disfrutar ser seres humanos”.

Jack Ma, Fundador de Alibaba
Categorías
Desarrollo IT

Unir nuestra mente con las computadoras

Las declaraciones de Elon Musk que advierten sobre cómo podría amenazar a la misma humanidad son bastante conocidas en la comunidad de innovadores. Elon Musk considera que la Inteligencia Artificial  puede hacer que los humanos quedemos relegados en el papel de gatos domésticos. Con esto en mente, el emprendedor e innovador sudafricano fundó la startup Neuralink, cuyo objetivo es investigar cómo los seres humanos podríamos conectar nuestra cerebro a las computadoras. Hasta el momento, esta es una idea que ha producido buenos relatos de ciencia ficción -como los Borgs de Star Trek o San Junípero, de Black Mirror-, pero ninguna tecnología que pueda comercializarse en masa.

Las interfaces cerebro-máquina tiene algunos años en investigación. BrainGate es uno de los grupos de investigación que más avances han obtenido sobre este tema. Este equipo de la Universidad de Brown ha desarrollado y probado dispositivos médicos con el objetivo de restaurar la comunicación, movilidad e independencia de las personas que han sufrido enfermedades neurológicas como parálisis cerebral o estado de coma. 

Estas tecnologías representan un salto cualitativo en la comunicación humano-máquina. Sin embargo, aún conllevan altos riesgos, como el peligro de infección debido a la operación necesaria para instalar el dispositivo. Con esto en mente, Musk ha decidido desde 2017 apoyar la investigación de métodos menos invasivos a través de Neuralink, aunque no había dado a conocer los objetivos de la empresa hasta este año.

Elon Musk presentó recientemente su nuevo proyecto.

El fundador de PayPal Elon Musk no es el único que ha estado interesado en el desarrollo de las llamadas interfaces cerebro-máquina. La compañía fundada por Mark Zuckerberg también ha invertido en la investigación de esta tecnología para lograr que esta interprete la actividad neuronal y la traduzca en palabras en tiempo real. 

Otras compañías han trabajo en el desarrollo de esta tecnología para propósitos éticos, como son Kernel, Emotiv, and Neurosky.  Los avances son significativos y han empezado a cambiar las vidas de las personas: En los útimos años, los pacientes con parálisis cerebral han recibido implantes que les ha permitido mover el puntero de la computadora o controlar brazos robóticos.

Nuevos derechos para nuestros cerebros

Estas son tecnologías muy recientes, pero los especialistas se adelanten a los problemas éticos que puedan surgir. ¿Dónde establecemos hasta dónde somos nostros mismos y en qué momento comienza la actividad de una máquina? Estas preocupaciones han llevado a hablar sobre la “jurisprudencia de la mente”. 

En América Latina, Chile es el país pionero en este tema. El neurocientífico Rafael Yuste ha promovido que los legisladores voten en noviembre una reforma que permita la protección de la información en el cerebro como un derecho humano.

En Europa, el investigado de ETH Zurich Marcello Ienca ha impulsado para que la legislación del bloque económico se mueve hacia la misma dirección. Este investigador presentó un artículo en el que destacó cuatro principios básicos para la era de la neurotecnología

“Estoy muy preocupado por la comercialización de los datos del cerebro en el mercado consumidor”,

Marcello Ienca, investigador neuroeticista de ETH Zurich

Ienca recientemente confesó para Vox sus preocupaciones sobre estas tecnologías, como es el uso que podría dársele a los datos de nuestro cerebro. “No hablo sobre un futuro tecnológico lejano. Ya existe neurotecnología para el consumidor, con personas que comercian con los datos de sus cerebros para servicios de tecnologías privadas”. 

Entre los usos comerciales que existen en la actualidad, Ienca ha mencionado el neurogaming, donde controlas los movimientos de un videojuego con la actividad de tu cerebro en lugar de un control tradicional. También existen dispositivos wearables que monitorean las actividades del sueño. “Estoy tentado en llamarle neurocapitalismo”, dice Ienca.

Ienca propone nuevos derechos humanos para adelantarse al uso que pueda tener esta tecnología y proteger de esta manera la privacidad de las personas.

Los nuevos derechos para el cerebro

  1. El derecho de la libertad cognitiva

    Debes tener el derecho de decidir libremente cuándo quieres utilizar una neurotecnología determinada o cuándo negarte a utilizarla.

    Ienca ofrece dos escenarios actuales en que las personas podrían sentirse presionadas para utilizar neurotecnología.En China, el gobierno prueba gorros que escanenan la actividad cerebral para identificar depresión, ansiedad, ira o fatiga. En este caso, si un empleador desea monitorear tu capacidad de atención con esta tecnología, esto podría representar una violación a este principio aunque te digan que es opcional, por la presión social para utilizarlo.
  2. El derecho a la privacidad mental

    Debes tener el derecho de aislar los datos de tu cerebro o de compartirlos públicamente.

    Ienca se adelanta a la posibildad de que esta tecnología pueda ser utilizada para interregotarios o investigaciones. En un mundo donde las autoridades pueden meterse en tu mente sin tu consentimiento, los principios contra la autoincriminación o de mantenerse en silencio no tienen sentido.

  3. El derecho a la integridad mental

    Debes tener el derecho a no ser dañado física o mentalmente por la neurotecnología.

    Ienca se adelanta a la posibilidad de utilizar interfaces computadora-cerebro que tengan un modo de “escritura” y que permitan -en teoría- controlar nuestra mente o hacer lavados de cerebro, como podrían ser autoridades religiosas que quieran adoctrinar a los fieles, o regímenes políticos que persiguen a los disidentes.

    Estos son escenarios hipotéticos, aunque Ienca señala la posibilidad se ha demostrado en estudios de pruebas de concepto.

  4. El derecho a la continuidad psicológica

    Debes tener el derecho a protegerte de alteraciones que afecten tu sentido de identidad y que no autorizaste.

    Una compañía le dio a una mujer epiléptica un dispositivo que le hizo sentir ser parte de una simbiosis radical. Sin embargo, la compañía quebró y forzaron a la mujer a quitarse el transparte, lo que hizo que la mujer sintiera que “se había perdido a sí misma.

    Para Ienca, este ejemplo muestra que la continuidad psicológica puede ser perturbada no solo con la utilización de esta tecnología, sino también con la remoción de los dispositivos. 
Categorías
Desarrollo IT

IA: un nuevo reto para la ciberseguridad y la privacidad

La Inteligencia Artificial ha ofrecido en años recientes técnicas para mejorar los procesos de las empresas, hacer tareas de manera más eficientes y analizar una gran cantidad de datos en poco tiempo. Sin embargo, estas mismas técnicas también pueden ser utilizadas para amenazar la privacidad y seguridad de los usuarios.

Acelerómetros usados para tomar tus datos

En 2016, un recién graduado danés encendió las alertas del mundo con su tesis de maestría en IT University de Copenhague. Tony Beltramelli, de entonces 25 años, había descubierto una manera para adivinar las contraseñas de los usuarios de relojes inteligentes como el iWatch.

Beltramelli advirtió que “por su muy natural característica de ser wearables, estos dispositivos [smartwatches y monitores de ejercicio] otorgan una base para realizar ataques nocivos que amenazan la privacidad del usuario y de otros”.

Gracias a los acelerómetros que integran estos dispositivos wearables, una aplicación puede saber si haces un movimiento natural de la mano o si estás tecleando algo en una tableta o computadora. Beltramelli fue más allá. Tras recolectar suficientes datos, demostró que la información del acelerómetro combinado con técnicas de machine learning hacen posible adivinar la contraseña de un dispositivo móvil. Esto es todavía más sencillo gracias a que la mayoría de los teclados están estandarizados en forma y tamaño.

Beltramelli pudo comprobar esto gracias a que tuvo acceso completo a los mecanismos internos de un smartwatch. Un usuario que no ha instalado alguna aplicación de terceros y que no ha otorgado permisos a la aplicación podría estar a salvo. Sin embargo, en septiembre de 2018 un equipo de investigadores del Instituto Internacional de Ciencias de la Computación en California descubrió que algunos desarrolladores de aplicaciones estaban utilizando técnicas maliciosas para recolectar información del usuario sin necesidad de solicitar permisos. La cifra no era baladí: más de 1,300 aplicaciones obtenían información de geolocalización precisa e identificadores del teléfono.

Los investigadores señalaron en su plática “ 50 Ways to Leak Your Data” que “las apps pueden evadir el modelo de permisos y acceder a datos protegidos sin el consentimiento del usuario, usando tanto canales velados o alternativos. Estos canales ocurren cuando hay una forma para acceder a los recursos protegidos que no están auditados por los mecanismos de seguridad, dejando a los recursos desprotegidos”.

Con esta técnica, aplicaciones como Photo Identifier eran capaces enviar información de geolocalización del usuario aprovechando los permisos de otra aplicación.

De esta misma manera, las aplicaciones pueden aprovechar el acelerómetro para colectar datos cuando se utiliza el altavoz, según publicó a inicios de este mes un equipo de investigadores de seguridad (Abhishek Anand, Chen Wang, Jian Liu, Nitesh Saxena, Yingying Chen).

Los investigadores crearon una aplicación como prueba de concepto que imita el comportamiento que tendría un atacante malicioso. La aplicación grababa las vibraciones de voz con el acelerómetro y enviaba la información a un servidor controlado por el atacante.

https://twitter.com/aestatevipera/status/1151632622507954177

De esta manera, una aplicación puede grabar las conversaciones que el usuario mantiene con otra persona en mensaje de audio u obtener información de sus gustos musicales. Los investigadores señalaron que información como la fecha de cumpleaños o las cuentas bancarias podrían no estar comprometidas mediante este método, ya que estas no suelen compartirse mediante mensajes de voz por estar conformadas de dígitos.

Sin embargo, esta técnica (llamada “Spearphone” por sus desarrolladores) tiene la capacidad de identificar el género de una persona con un 90% de precisión, mientras que puede identificar al interlocutor con un 80% de precisión.

Algunas técnicas de mitigación sugeridas por los investigadores fueron reducir la tasa de muestreo o variar el volumen máximo de un teléfono para que las lecturas del acelerómetro se dificulten.

Eres juzgado por tu aspecto

Otro caso que ha levantado preocupación sobre su potenciales usos contra la privacidad y seguridad de las personas es el reconocimiento facial, a tal grado que en San Francisco prohibió en mayo de 2019 el uso de tecnología de reconocimiento facial por el gobierno donde activistas y desarrolladores cuestionaron la necesidad de utilizar esta tecnología con fines policiales.

En el caso del reconocimiento facial, el problema no yace en el peligro que un criminal “hackee” nuestro rostro y lo utilice para acceder a nuestras cuentas bancarias, sino en las formas en que el Estado pueda utilizar esta tecnología para mantener el control y discriminar a ciertos grupos.

Uno de los problemas denunciados es la poca precisión que tiene esta tecnología para reconocer rostros que no son blancos. Existe un margen de error de 0.8% en estos dispositivos cuando se trata de hombres blancos, mientras que el margen de error aumenta a 34.7% para el caso de mujeres de piel oscura.

El New York Times denunció que autoridades chinas utilizaban esta tecnología para monitorear a las personas que pertenecen a minoría étnicas, como la población musulmana de la región de Xinjiang, en lo que calificaba como una expresión de racismo. En el desarrollo de estos sistemas de identificación facial estaban involucradas varias startups chinas, como Yitu, Megvii, SenseTime, and CloudWalk. Algunas de ellas, como Megvii, también desarrollan tecnología para startups de Estados Unidos.

El caso de China podrá sonar como una situación extrema, pero cada vez surgen más estudios que señalan cómo muchos algoritmos de IA muestran un sesgo a la hora de interpretar los datos, lo que no es problema de la tecnología en sí, sino en cómo es programada y entrenada.

Este tipo de situaciones ha llevado a advertir sobre los riesgos de esta tecnología, como el caso de Elon Musk quien ha calificado a la AI como “más peligrosa que las armas nucleares”.

Toda tecnología conlleva sus riesgos y estos es verdad desde que se crearon las primeras herramientas de la humanidad. El fuego y la cuña son un peligro utilizadas sin precaución. Proscribir las nuevas tecnologías es una salida poco realista. Un camino más prometedor es advertir de antemano los problemas que generan y buscar soluciones innovadoras para resolverlos.

Categorías
Desarrollo IT

El PIB aumentaría un punto si América Latina invierte en IA

El presidente del Banco Interamericano de Desarrollo (BID) Luis Alberto Moreno indicó que la inversión en Inteligencia Artificial (IA) podría facilitar las negociaciones comerciales y acelerar el crecimiento económico de la región.

El funcionario del BID estuvo en la inauguración del 11º Foro Internacional para América Latina y el Caribe, organizado por el BID y la OCDE en París, Francia. En el evento, Luis Alberto Moreno habló de la importancia de los smartphones en la región, ya que han favorecido la inclusión financiera para la población.

Sobre la IA, Moreno describió a la tecnología como “un híbrido único de capital y trabajo que crea un fuerza productiva completamente novedosa”. La mitad del crecimiento estimado que puede aportar la IA se debería a las mejoras en la productividad.

En América Latina hay varias iniciativas para desarrollar tecnología basada en IA. En Chile, 7 de cada 10 empresas planea invertir en este sector. Sin embargo, la región sigue atrasada en este rubro. El conjunto de la OCDE dirige 2.4% del PIB al sector, mientras que en América Latina la inversión es de apenas 0.7%.

Sin estrategia, la IA podría aumentar la brecha de ingresos

El presidente del BID también lamentó que hasta el momento el avance tecnológico en América Latina solo ha aumentado la brecha de ingreso y la desigualdad en la región.

“Ya perdimos una vez el tren de la Revolución Industrial. No podemos perder este tren de la Revolución Tecnológica”, aseveró.

Una forma de modificar esta situación, sugerida en el foro, es buscar lazos con las universidad para que estas permitan la transferencia de tecnología. En el continente existen varias iniciativas para lograr este objetivo.

Para Moreno, la incorporación de las nuevas tecnologías en la productividad del continente permitirá profundizar las cadenas de valor, ya que se podrán analizar el flujo de datos obtenidos a través del intercambio comercial, posiciones arancelarias, normas técnicas, entre otras fuentes.

Sin embargo, si los gobiernos no toman las medidas necesarias para mejorar la educación tecnológica del continente y crear estrategias que permitan aprovechar de manera adecuada esta tecnología, la IA podría ampliar las brechas de inequidad.