¿Cómo generar confianza en Inteligencia Artificial?

¿Cómo generar confianza en Inteligencia Artificial?

 

Desde octubre 2022, la Inteligencia Artificial parece haber tomado el mundo por asalto. Somos mucho más digitales, comenzando por nuestros teléfonos y redes sociales. En los diferentes dispositivos y plataformas, cada aplicación está cambiando para incluir la Inteligencia Artificial Generativa (IAG), así que aun cuando no lo sepamos o no lo quisiéramos, ya la estamos usando. Además de eso, muchas personas y organizaciones la están probando y usando de maneras muy diferentes, prácticamente la estamos descubriendo día a día.





Especial de Laszlo Beke

Para aprovechar todo el potencial de IA en una manera responsable y sostenible, y asegurar que esta contribuya en una forma positiva a la sociedad es necesario hacer un uso responsable y ético de la Inteligencia Artificial (IA). Entendiendo que la Inteligencia Artificial es un hecho muy importante, y está para quedarse y para transformar como hacemos las cosas y a todos los sectores de la economía también, es determinante identificar lo que se debe hacer para controlar los riesgos y reforzar la seguridad en su uso y lograr la confianza de la gente, y para ello podemos identificar los siguientes elementos:

Seguridad – Garantizar la seguridad de los sistemas de IA es vital para poder prevenir ataques maliciosos y el robo de data. Esto incluye asegurar la data usada por IA, proteger los modelos de IA y asegurar que existan robustas medidas de ciberseguridad.

Administración del riesgo – Los sistemas de IA plantean riesgos como filtraciones o violaciones de la data, su mal uso y las consecuencias no deseadas e involuntarias de estas. La administración efectiva del riesgo involucra la identificación temprana de los riesgos potenciales, la implementación de medidas preventivas y el continuo monitoreo de los sistemas de IA.

Confianza – Generar confianza en los sistemas de IA es esencial para su adopción. Ello involucra asegurar la transparencia en la forma en la cual se toman las decisiones en IA y se abordan los sesgos, y haciendo los sistemas de IA entendibles para los usuarios.

Consideraciones éticas – La IA ética involucra la equidad, la responsabilidad y la transparencia. Ello implica enfrentar temas como los sesgos, asegurar que las decisiones de IA sean explicables y lograr que los sistemas de IA sean utilizados de manera que beneficien a toda la sociedad.

Sesgo y equidad

El sesgo y la equidad son temas críticos en el desarrollo e implementación de los sistemas de IA, y son determinantes para que estos sean transparentes y beneficiosos para todos. El sesgo en IA ocurre cuando un sistema de IA produce resultados que están sistemáticamente cargados de prejuicios, debido a presunciones erróneas en el proceso de aprendizaje automático, los cuales pueden tener diferentes orígenes:

(a) Sesgo de la data – Si la data que se usa para entrenar el modelo de IA esta sesgada, el modelo seguramente reflejará dichas parcialidades y prejuicios. Por ejemplo, si un modelo de reconocimiento facial es entrenado principalmente con imágenes de personas asiáticas, seguramente tendrá un desempeño pobre con individuos caucásicos o de piel oscura;

(b) Sesgo algorítmico – Los algoritmos pueden introducir el sesgo y esto puede ocurrir en el diseño del algoritmo, o la forma en la cual procesa la data internamente, favoreciendo ciertos resultados sobre otros y

(c) Sesgo humano – Los prejuicios pueden ser introducidos por los humanos que diseñan, entrenan e implementan los sistemas de IA. Sus propios sesgos y presunciones pueden influir en el comportamiento de IA.

En cuanto a la equidad o imparcialidad, esta involucra lograr que los sistemas de IA operen en una forma justa e imparcial y ello incluye: (a) Transparencia – Hacer que los sistemas de IA sean entendibles y explicables a los usuarios, lo cual a su vez ayuda a corregir los sesgos; (b) Responsabilidad (accountability) – Asegurar que existan mecanismos que responsabilicen a los sistemas de IA y a sus creadores de sus acciones y decisiones; (c) Inclusividad – Diseñar los sistemas de manera que consideren las necesidades y perspectivas de diversos tipos de públicos, ayudando así a crear resultados más imparciales y (d) Estrategias de mitigación – Implementar técnicas que detecten y reduzcan los sesgos en los sistemas de IA. Esto puede abarcar el uso de data de entrenamiento diversa, auditorias programadas y algoritmos conocedores o familiarizados con la imparcialidad.

Existen varias estrategias para enfrentar el sesgo y lograr la equidad y estas incluyen: (a) Recolección de data diversa – Asegurar que la data utilizada para entrenar los modelos de IA es representativa de todos los públicos, lo cual ayuda a reducir el sesgo de la data; (b) Herramientas de detección de sesgo – Utilizar herramientas y técnicas que ayuden a detectar prejuicios en los modelos de IA. Esto puede involucrar pruebas estadísticas y métricas de imparcialidad; (c) Guías éticas – Adoptar guías y estructuras para el desarrollo de IA, para asegurar que los sistemas de IA sean diseñados y utilizados responsablemente y (d) Monitoreo continuo – Monitorear el sistema de IA con regularidad para detectar señales de sesgo y de ventajismo, lo cual permite identificar y enfrentar las situaciones en la medida que ellas aparecen.

Chatbots éticos

Los chatbbots públicos adquieren más importancia cada vez y son medios que las personas y las organizaciones utilizan para complementar el conocimiento y la información que se maneja en sus sistemas internos. El desarrollo de chatbots éticos implica adherirse a varios lineamientos para asegurar que ellos sean responsables, transparentes y útiles para los usuarios. Algunos de los principios más importantes son:

– Transparencia, revelación y divulgación – incluyendo: (1) Identidad – para generar confianza y establecer las expectativas apropiadas, revelarle con claridad a los usuarios que están interactuando con un chatbot y no con un ser humano; (2) Propósito – con el fin de ayudar a los usuarios a conocer el alcance y las limitaciones del chatbot, explicando el propósito del chatbot y cómo este puede asistir a los usuarios.

– Consentimiento informado – abarcando: (1) Recolección de data – obtener la aprobación explícita de los usuarios antes de recolectar cualquier data personal. Asegurar que los usuarios entienden cual data está siendo recolectada y como será utilizada y (2) Uso – informar a los usuarios como su data será procesada y almacenada, incluyendo las prácticas para asegurar el anonimato que proteja la identidad de los usuarios.

– Privacidad y seguridad de la data, abarcando: (1) Protección – implementar medidas de seguridad robustas para proteger la data del usuario de violaciones o de accesos no autorizados y (2) Compliance – asegurar el cumplimiento de las regulaciones de protección data, tales como el Reglamento General de Protección de Datos.

– Responsabilidad, abarcando: (1) Manejo de errores – establecer mecanismos para detectar y corregir errores o daños causados por el chatbot e identificar el responsable por las acciones y decisiones del chatbot y (2) Ciclo de retroalimentación – proveer a los usuarios una vía para reportar y retroalimentar temas asociados al chatbot, y utilizar dicha retroalimentación para continuamente mejorar el chatbot.

– Guías éticas y el ámbito, comprendiendo: (1) Principios éticos – adoptar guías y esquemas para el desarrollo de IA, como equidad, imparcialidad, responsabilidad y transparencia y (2) Control humano – asegurar que exista vigilancia humana en los procesos críticos de toma de decisiones.

– Diseño centrado en el usuario, abarcando: (1) Inclusividad – diseñar los chatbots tomando en consideración las necesidades de diversos grupos de usuarios, ayudando a crear interacciones más equitativas y asequibles y (2) Experiencia del usuario – focalizarse en una experiencia del usuario positiva a través de un chabot intuitivo y confiable.

– Mitigación del sesgo – incluyendo: (1) Data variada – utilizar conjuntos de datos variados y representativos para entrenar al chatbot, reduciendo el riesgo de respuestas sesgadas y (2) Auditorías programadas – ejecutar auditorias para identificar y corregir cualquier prejuicio que haya aparecido en las interacciones del chatbot.

Se hace referencia a AI’s Trust Problem – Harvard Business ReviewAI and cybersecurity: Navigating the risks and opportunitiesThe ethics of artificial intelligence: Issues and initiativesNavigating the Ethics of AI in Chatbot Development – LibrariaResponsible bots: 10 guidelines for developers of conversational AIBuilding Ethical AI Chatbots: A Guide to Responsible AI – Mohamed SoufanLegal and Ethical Frameworks for AI Chatbot Development y Responsible bots: 10 guidelines for developers of conversational AI. También aparece en mi Portal https://tinyurl.com/3r75bju2. La imagen es cortesía de Bing Image Creator.