Forbes Argentina
Arvind Krishna, IBM
Columnistas

Cómo gobiernos y empresas pueden promover IA confiable

Arvind Krishna

Share

1 Octubre de 2024 14.33

La inteligencia artificial ofrece una oportunidad importante, con mucho en juego. Se espera que la IA mejore la productividad humana y genere un valor impresionante de 16 billones de dólares para el año 2030. Esto no solo impulsará el crecimiento económico y aumentará el PIB, sino que también proporcionará una ventaja competitiva a aquellos que aprovechen sus capacidades de manera efectiva.

Se espera que la IA podría ayudar a abordar algunos de los desafíos más urgentes, como el descubrimiento de nuevos medicamentos, la mejora en la producción de alimentos o la lucha contra el cambio climático. Sin embargo, como con cualquier otra tecnología poderosa, la inteligencia artificial conlleva un potencial de uso indebido y de riesgos significativos. Si no se implementa la inteligencia artificial de manera responsable, podría tener consecuencias en el mundo real, especialmente en áreas sensibles y críticas para la seguridad. 

En IBM, creemos que una regulación inteligente debería fundamentarse en tres principios fundamentales: 

#1 Regular el riesgo de la IA, no sus algoritmos 
Debemos regular los usos de alto riesgo de la inteligencia artificial. No todos los usos de la inteligencia artificial conllevan el mismo nivel de riesgo. Mientras algunos pueden parecer inofensivos, otros pueden tener consecuencias de gran alcance, como la propagación de desinformación, la introducción de sesgos en las decisiones de préstamos o la afectación de la integridad electoral.

Debido a que cada aplicación de la inteligencia artificial es única, creemos firmemente que la regulación debe tener en cuenta el contexto en el que se despliega y debe garantizar que los usos de alto riesgo de la inteligencia artificial estén regulados con mayor rigor. 

Este tipo de regulación inteligente y precisa funciona. Existe un precedente exitoso. Para el caso de los semiconductores, nunca hemos otorgado licencias para la invención de nuevos chips. En cambio, sí regulamos cuándo, dónde y cómo se utilizan esos productos. Esto ayuda a promover tanto la innovación como la responsabilidad. Lo mismo se puede hacer con la inteligencia artificial.

#2 Creadores e implementadores de IA deben ser sujetos responsables, no inmunes
 Debemos hacer sujetos de responsabilidad a quienes crean e implementan la inteligencia artificial. Si bien los gobiernos desempeñan un papel importante, otros también deben asumir una responsabilidad. 

La legislación debe considerar los diferentes roles de los creadores e implementadores de la inteligencia artificial y hacer que respondan por sus acciones en el contexto en el que desarrollan o implementan la tecnología. Por ejemplo, las empresas que utilizan la inteligencia artificial para la toma de decisiones de empleabilidad no pueden alegar inmunidad ante acusaciones de discriminación. De manera similar, si un desarrollador de software crea un algoritmo financiero que promueve actividades fraudulentas, debe hacerse responsable por el daño potencial que pueda causar. Es esencial encontrar el equilibrio adecuado entre la innovación y la responsabilidad.

#3 Promover innovación abierta de IA, no un régimen de licencias 
No deberíamos crear un régimen de licencias para la inteligencia artificial. Un régimen de licencias para la inteligencia artificial sería un golpe serio a la innovación abierta y correría el riesgo de fomentar una captura regulatoria. Esto aumentaría los costos, obstaculizaría la innovación, perjudicaría a los actores más pequeños y a los desarrolladores de código abierto, y consolidaría el poder de mercado de unos pocos. 

En cambio, la inteligencia artificial debería ser construida por y para muchos, no para unos pocos. Con ese fin, un ecosistema abierto y vibrante de inteligencia artificial es bueno para la competencia, la innovación, la capacitación y la seguridad. Garantiza que los modelos de inteligencia artificial sean moldeados por muchas voces diversas e inclusivas. 

IA Responsable en IBM 
Durante más de un siglo, IBM ha estado a la vanguardia en la introducción responsable de tecnologías innovadoras. Esto significa que no ofrecemos tecnología al público sin comprender completamente sus consecuencias, sin proporcionar protecciones esenciales y sin garantizar una adecuada rendición de cuentas. 

Creemos, más bien, que abordar las repercusiones de esas innovaciones es tan importante como las propias innovaciones. Nuestro compromiso con la IA confiable y responsable es evidente en nuestro enfoque para construir y desplegar modelos de IA. Los modelos de IA son esencialmente una representación de datos subyacentes. Por eso, IBM ha adoptado un enfoque integral con una plataforma que permite a los creadores de IA desplegar IA confiable y responsable. 

Nuestra plataforma WatsonX asegura la gobernanza en cada nivel, desde la ingesta de datos hasta el desarrollo del modelo, el despliegue y el monitoreo durante todo el ciclo de vida de la IA. Esto permite a las empresas desplegar una IA confiable, responsable y sujeta a rendición de cuentas. 

Equilibrar la innovación con responsabilidad y confianza 
Un aumento significativo en el uso de la inteligencia artificial puede y debe beneficiar a todos. En IBM, alentamos a los gobiernos a adoptar y aplicar regulaciones inteligentes y coherentes que permitan a las empresas y a la sociedad aprovechar los beneficios de la inteligencia artificial, al mismo tiempo que consideren su potencial uso indebido y riesgos asociados. IBM está preparada y comprometida en desempeñar un papel fundamental en la promoción de la inteligencia artificial responsable. Esperamos contribuir a la construcción de un futuro de la IA en el que todos podamos confiar.

10