Giovanni Stella, director de Google Colombia: “las potencialidades de la IA son infinitas, pero eso no implica que todas sean buenas”

Incluso antes de dejar su Italia natal para trabajar en Irlanda, Argentina y, eventualmente, nuestro país, Giovanni Stella, director de Google Colombia, Centroamérica y el Caribe, tenía claro que su enfoque es la educación y la transformación digital. No en vano ha conseguido dirigir exitosamente decenas de proyectos de desarrollo en la región, no solo de alcance tecnológico, sino a nivel empresarial y de apoyo a la comunidad.

Hace 14 años, este administrador de empresas con un MBA de la London Business School  llegó a Google y, hace 8, a Colombia. Ahora que la compañía que definió el mercado de las búsquedas y la publicidad digital apunta al lugar destacado que desea ocupar como una voz responsable en el cambiante paisaje de la inteligencia artificial, Stella se sentó a hablar del tema con Xataka Colombia.

-¿Cuál cree Google que puede ser, específicamente, el impacto de la inteligencia artificial para un país como Colombia?

El contexto colombiano es para nosotros muy interesante. Vemos en Colombia un terreno fértil, con mucho potencial digital. Es un país que cuenta con más de 12 millones de jóvenes, y que tiene uno de los entornos másfavorables para emprender en la región, según el Global Entrepreneurship Monitor.  Es un país para el cual la economía digital puede llegar a tener un gran impacto y que ya ha visto nacer a empresas como Rappi, como Platzi, entre otras.

Entonces, para nosotros, Colombia es un país donde obviamente el impacto potencial de la inteligencia artificial puede ser muy grande. Nosotros creemos que puede serlo principalmente en tres ámbitos: primero, puede permitir detectar patrones y tendencias y eso lo hace de una forma, que es imposible para para las personas. Eso ya hoy en día se puede hacer tanto a nivel empresarial como a nivel de proyectos.

Segundo, permite también hacer predicciones gracias a la gran cantidad de datos que puede manejar. En eso es simbólico un proyecto que acaba de llegar a Colombia que se llama Flood Hub, que lo que hace es, a través de Inteligencia Artificial, enviar notificaciones a poblaciones que están en riesgo de inundación. Eso habla de los impactos concretos que la inteligencia artificial puede tener en la sociedad. Es un ejemplo bonito.

Y, tercero, la inteligencia artificial puede ayudar a potenciar nuestras ideas, ayudarlas a volverse realidad, y esa es la parte que tiene más que ver de cerca con la inteligencia artificial generativa y toda esa conversación que ha nacido este año.

En el caso de Google, tenemos nuestro experimento, que es Bard, para la parte de consumers. Después tenemos las herramientas de Cloud, tenemos a Vertex, que es la contraparte de Bard para empresas. Pero básicamente lo que busca la inteligencia artificial generativa es permitir efectivamente hacer cosas que antes no se podían hacer, automatizar tareas, incluso generar una conversación activa con el usuario, potenciar las ideas habilitando tanto a las personas como a las empresas para multiplicar la eficiencia de la creatividad a escala.

Entonces, el contexto en el que se mueve Colombia en cuanto a inteligencia artificial es un contexto parecido al al contexto internacional, es un país que tiene un altísimo potencial y nosotros con esas herramientas creamos firmemente que podemos promover una inteligencia artificial que sea útil para todos los colombianos: para las personas, para las comunidades y para las empresas.

Un impacto positivo

-¿Qué consideraciones tiene Google frente a ese potencial que uste menciona ven en Colombia, pero también frente a la vulnerabilidad que tiene Colombia ante una tecnología como la IA?

Desde Google vemos la inteligencia artificial como una gran oportunidad de tener un impacto positivo en la forma de hacer negocios, en la forma para las empresas de volverse más eficientes y más productivas. Eso seguramente terminará cambiando la forma de trabajar de algunas empresas, o puede cambiar incluso la forma de trabajo de algunas posiciones laborales.

Es lo que pasó con las disrupciones digitales que hemos tenido en el pasado. La misma llegada de Internet hizo que muchos trabajos cambiaran, se adaptaran, y quizás algunas de las preocupaciones, de los miedos que existían entonces pueden ser conceptualmente parecidos a los que pueden existir hoy en día.

Lo que vemos nosotros es un impacto positivo porque, finalmente, lo que va a hacer la IA es potenciar los resultados de las empresas y la creatividad de las personas, sin necesariamente sustituir su trabajo.

-Toda esa reformulación del espacio laboral y del espacio empresarial no se puede lograr sin una reformulación, también, de las habilidades y de las capacidades de la gente. ¿Cómo está el país en términos de esa formación?

Hay una oportunidad para fomentar la educación digital, fomentar la generación de habilidades digitales. No necesariamente porque Colombia esté en una posición diferente a la de los demás países de la región, sino porque las tecnologías avanzan con una velocidad que requiere una actualización continua. Entonces sí creo que hay una oportunidad para fortalecer esa educación digital.

Por eso es importante que empresas como Google sigan haciendo mucho énfasis en ofrecer herramientas de educación. Por eso a lo largo de los últimos dos años hemos otorgado miles de becas en información digital, en certificaciones laborales que permitan a las personas adquirir habilidades en áreas clave como el manejo de proyectos o el análisis de datos, justamente porque creemos que eso después puede facilitar que esas personas puedan encontrar un empleo.

Creo que el mundo en general en este momento está frente a un desafío de darle mayor velocidad a esa generación de habilidades, porque las habilidades que se requieren para interactuar con sistemas como Bard son nuevas, son son habilidades que literalmente a principios de año no sospechábamos que se necesitaran. Y creo que va a ser fundamental el enfoque de empresas como Google, aunque no va a ser suficiente porque va a ser fundamental también el trabajo de la sociedad civil, de la Academia y de, Gobierno, todos alineados y todos de la mano para poder generar el tipo de impacto que se necesita.

Primero la IA

-¿Deberíamos estar enseñando código en las escuelas? ¿O ese barco ya se fue y más bien deberíamos estar enseñando a gente a usar esta inteligencia artificial para programar?

Es algo que muchas veces me pregunto yo mismo. Creo que lo primero es enseñar las herramientas de inteligencia artificial porque es el futuro, es el presente y es el futuro. Eso no quiere decir, en absoluto, quitarle protagonismo a la importancia que tenga aprender código -y, de hecho, nosotros seguimos teniendo muchos cursos que ayudan a aprender a desarrollar código- pero de alguna manera la inteligencia artificial, particularmente la inteligencia artificial generativa, hoy en día ya cubre parte de esas necesidades.

Si yo tuviese que escoger, y si yo, por ejemplo, tuviese que ayudar a mi a mi hijo a escoger entre las dos, hoy en día, yo le diría que hay que enfocarse en la inteligencia artificial.

-Desde hace mucho rato hemos visto el potencial que tiene la tecnología de ayudar en innumerables procesos, pero también hemos visto cómo puede ser usada en formas que manipulan, desinforman o alteran el curso de procesos democráticos…

Es por eso que empresas como Google tienen el deber de darse un marco moral y ético y en ese sentido. Yo destaco la iniciativa que Google lanzó, ya hace cinco años, de establecer unos principios para el desarrollo de inteligencia artificial, que lo que buscan hacer es, justamente, establecer un marco ético dentro del cual se tienen que mover todos los desarrollos tecnológicos de Google.

Con esos principios, cualquier empleado de Google que trabaje en desarrollar inteligencia artificial sabe que los productos de Google tienen que ser beneficiosos para todas las personas para la sociedad en general, tienen que ser seguros, tienen que respetar la privacidad, tienen que evitar sesgos injustos… Así mismo es fundamental mantener un elevado estándar de excelencia académica y científica, porque el desarrollo de la IA le plantea interrogantes grandes a la sociedad.

También es necesario, y eso también lo dice uno de los principios de Google, es fundamental que los productos que se desarrollan con inteligencia artificial no se puedan usar para fines diferentes a esos que están establecidos, que no se puedan usar para desarrollar cosas que hagan daño a la sociedad: armas, por ejemplo. Ese tipo de marco ético es exactamente el que yo creo que debe tener cualquier empresa que opere inteligencia artificial.

Por eso Google tiene un departamento, que es el de DeepMind, que tiene más de 3.000 profesionales de diferentes disciplinas, desde científicos de datos hasta filósofos, que se ocupan de efectivamente estudiar el impacto que la inteligencia artificial desarrollada por Google tiene en la sociedad. Creemos firmemente en un desarrollo, sí audaz, pero también responsable de la tecnología de Inteligencia Artificial. Y en eso creo que hay 20 y pico de años de experiencia de Google que demuestran la audacia de Google en el desarrollo, pero también en la responsabilidad, porque, una vez más, esas herramientas necesitan un marco ético y moral dentro del cual desarrollarse.

Ya lo estamos viendo

-¿Cómo se imagina el futuro de estos desarrollos en escenarios que podamos visualizar en una realidad como la de Colombia?

Yo creo que eso ya hoy en día lo estamos viendo y la gente lo está sintiendo, y si no es así quizás sea en muchos casos por no saber que se está interactuando con la IA.

Si miramos solamente los productos de Google disponibles para los consumidores de Colombia, hay ejemplos por todos lados. Pensemos en Google Fotos, que tiene un buscador que te permite decir: ‘Búscame todas las fotos que tengan montañas’, por ejemplo, y es capaz de reconocer en las fotos cuales tienen, efectivamente montañas. Si miramos Search, ahora la búsqueda se volvió mucho más inmersiva. Si pensamos en Gmail, hay estadísticas -que, incluso, creo que ya hoy en día pueden estar desactualizadas- que dicen que el 12% de las respuestas de Gmail se hacen a través de las respuestas automatizadas. Entonces, como eso hay muchos ejemplos de cosas que ya hoy en día están pasando.

Ahora: ¿hacia dónde vamos o qué es lo que es posible estimar para el futuro? Creo que nadie puede contestar esa pregunta, porque para contestarla o tratar de contestarla, necesitamos usar parte de la respuesta anterior: el marco ético. Porque a nivel de potencialidad, de qué es lo que se puede hacer, ya hoy en día se puede hacer de todo.

-¿Podemos hablar, entonces, de una tecnología de potencial infinito?

Se puede decir las potencialidades que ofrece hoy en día la inteligencia artificial son infinitas. Ahora, que sean infinitas no significa que todas sean buenas, o sean necesarias o sean oportunas. Lo que estamos tratando de hacer desde Google es asegurar que haya un desarrollo y un lanzamiento de esas herramientas que sea acorde a esa definición de oportunidad y de ética y de responsabilidad.

Es por eso que, por ejemplo, Bard para nosotros sigue siendo un experimento. Bard todavía no es un producto oficial de Google, es un experimento que como todo experimento puede que siga, puede que cambie, puede que incluso deje de existir como lo conocemos. Google, al mismo tiempo que en Bard, está trabajando también en otras herramientas, por ejemplo en Gemini, y todo esto sabemos que va a venir, pero se lanzará solamente cuando el control y la confianza que tenemos en esos productos sea suficiente para garantizar su uso responsable.

-Yo tengo la teoría de que lo que vivimos los últimos 12 meses, más que una innegable evolución tecnológica, es una revolución social, en el sentido en que nunca antes una tecnología de estas estuvo disponible de manera cotidiana para tanta gente…

Efectivamente, muchas de esas cosas se venían trabajando desde hace años. Recuerdo, ya en 2018, hubo un evento I/O en el que Sundar Pichai hizo una una reserva en una peluquería a través del Asistente de Google. Es tal cual lo que está pasando hoy en día, era algo que ya se podía hacer hace cinco años, pero la mayoría de las personas no lo sabía, no se habían enterado.

Entonces, la tecnología, en cuanto a existir, existía. Lo que cambió es la forma de dar a conocer a las personas esas herramientas y también se han dado avances en volver esos productos mucho más comerciales, mucho más asequibles. Antes había la idea de que eran cosas simplemente para nerds o para científicos, mientras que hoy en día ya son herramientas que están a disposición de todos. Pero también, quizás en el pasado se había usado mucho juicio, mucho criterio y quizá se había frenado esa idea de entregar a la sociedad la inteligencia artificial -particularmente la IA generativa- justamente porque se necesitaba ese marco ético.

Desde Google, creemos que es un tema que socialmente tiene unas implicaciones grandes, pero que todavía es un experimento. Ese trabajo de seguir definiendo ese marco ético no ha terminado y se tiene que seguir haciendo, más allá de que en este momento se haya vuelto casi de moda.

Pero, de hecho, cuando Sundar Pichai habla de Inteligencia Artificial, habla de un horizonte temporal de 10 años y dice: si uno lo ve en la perspectiva de acá a diez años, lo que está pasando hoy en día con la IA es completamente irrelevante frente al potencial de esta tecnología.

Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia