Descripción de la inteligencia artificial responsable

azure
22 / 100

Descripción de la inteligencia artificial responsable

La Inteligencia artificial es una herramienta poderosa que se puede usar para beneficiar enormemente al mundo. Pero como cualquier herramienta, se debe utilizar de manera responsable.

En Microsoft, el desarrollo de software de inteligencia artificial se guía por un conjunto de seis principios diseñados para garantizar que las aplicaciones de inteligencia artificial ofrezcan soluciones sorprendentes a problemas difíciles sin consecuencias negativas no deseadas.

Imparcialidad

Los sistemas de IA deberían tratar a todas las personas de manera equitativa. Por ejemplo, imagine que crea un modelo de Machine Learning para admitir una solicitud de aprobación de préstamo para un banco. El modelo debe hacer predicciones acerca de si el préstamo debe ser aprobado o no sin incorporar ningún sesgo basado en el género, origen étnico u otros factores que puedan resultar en una ventaja o desventaja injusta para grupos específicos de solicitantes.

Azure Machine Learning incluye la capacidad de interpretar modelos y cuantificar en qué medida cada característica de los datos influye en la predicción del modelo. Esta capacidad ayuda a los científicos y desarrolladores de datos a identificar y mitigar sesgos en el modelo.

Para obtener más información sobre las consideraciones de imparcialidad, vea el vídeo siguiente.

Confiabilidad y seguridad

Los sistemas de inteligencia artificial deben funcionar de manera confiable y segura. Por ejemplo, considere un sistema de software basado en IA para un vehículo autónomo; o bien, un modelo de Machine Learning que diagnostica los síntomas del paciente y recomienda recetas. La falta de fiabilidad en este tipo de sistema puede resultar en un riesgo sustancial para la vida humana.

El desarrollo de aplicaciones de software basadas en inteligencia artificial debe someterse a rigurosos procesos de prueba y administración de implementaciones para garantizar que funcionen de la forma esperada antes de su lanzamiento.

Para obtener más información sobre consideraciones de fiabilidad y seguridad, vea el siguiente vídeo.

Privacidad y seguridad

Los sistemas de inteligencia artificial deben ser seguros y respetar la privacidad. Los modelos de Machine Learning en los que se basan los sistemas de inteligencia artificial dependen de grandes volúmenes de datos, que pueden contener datos personales que deben mantenerse privados. Incluso después de entrenar los modelos y que el sistema esté en producción, usa datos nuevos para realizar predicciones o tomar medidas que pueden estar sujetas a problemas de privacidad o seguridad.

Para obtener más información sobre las consideraciones de privacidad y seguridad, vea el vídeo siguiente.

Inclusión

Los sistemas de inteligencia artificial deben empoderar a todos e involucrar a las personas. La inteligencia artificial debería aportar beneficios a todos los sectores de la sociedad, independientemente de su capacidad física, género, orientación sexual, origen étnico u otros factores.

Para obtener más información sobre las consideraciones de inclusividad, vea el vídeo siguiente.

Transparencia

Los sistemas de inteligencia artificial deben ser comprensibles. Los usuarios deben ser plenamente conscientes del propósito del sistema, su funcionamiento y las limitaciones que se pueden esperar.

Para obtener más información sobre las consideraciones de transparencia, vea el vídeo siguiente.

Responsabilidad

Las personas deberían ser responsables de los sistemas de inteligencia artificial. Los diseñadores y desarrolladores de soluciones basadas en IA deben trabajar dentro de un marco de gobernanza y principios de organización que garanticen que la solución cumpla con los estándares éticos y legales claramente definidos.

Para obtener más información sobre las consideraciones de responsabilidad, vea el vídeo siguiente.


Siguiente unidad: Exploración de la inteligencia artificial responsable en la práctica