Aqui estan mis notas del libro Trustworthy AI de Beena Ammanath.
Puntos clave
El entusiasmo por la inteligencia artificial (IA) puede eclipsar las consideraciones éticas sobre su uso.
Las personas deben aplicar sus valores para impulsar la ética en la IA.
Los desarrolladores deben eliminar sesgos de los datos que utilizan para entrenar los algoritmos de IA.
La IA que funciona en el laboratorio también debe funcionar en el mundo real.
Para generar confianza, la IA debe ser transparente y explicable.
Para generar confianza, se debe priorizar la seguridad de la IA.
Más allá de la seguridad, se debe enfocar en la privacidad de los datos.
La IA debe ser responsable y rendir cuentas.
Resumen
El entusiasmo por la inteligencia artificial (IA) puede abrumar las consideraciones éticas sobre su uso. La IA cambiará todo en el trabajo y la vida. No se pueden subestimar sus implicaciones, tanto el bien que puede hacer como el daño potencial. A pesar de su evolución durante décadas, no existe un manual para su implementación pública. Hoy en día, la IA se asemeja a las primeras reglas de tránsito cuando los coches aparecieron por primera vez: no existían. Los líderes empresariales y los responsables de políticas gubernamentales deben ponerse al día, como ocurrió con la llegada del automóvil.
“No hay un segmento de la sociedad ni un mercado que quede intacto por la IA, y esta transformación tiene el potencial de brindar el impacto más positivo de cualquier tecnología que hayamos desarrollado.”
La IA exige el pensamiento y las perspectivas de personas de todas las profesiones, sectores e industrias. Cada organización debe determinar cómo usar la IA de manera ética basada en sus valores corporativos antes de adaptarla e implementarla. Si los trabajadores y otros interesados no confían en la IA que sus líderes implementan, fracasará.
Pocas personas se dan cuenta de hasta qué punto la IA ya impulsa muchas de las herramientas que utilizan y las decisiones que toman. Sin embargo, la IA solo ahora es capaz de interrumpir cualquier cosa. A pesar de su potencial casi ilimitado, la IA solo puede hacer lo que los humanos le indican. Las personas y las organizaciones tienen una breve ventana de tiempo para tomar decisiones éticas que resulten en una IA justa, transparente, explicable, confiable, responsable y responsable: en resumen, una IA confiable.
Se necesita inventar valores para impulsar la ética en la IA
Gran parte de la atención mediática sobre la IA avanzada tiende a atribuirle cualidades humanas a la tecnología. Eso es incorrecto; la IA no piensa ni razona. Existe para ejecutar algoritmos que los humanos crean. El almacenamiento masivo y asequible de datos y el procesamiento informático poderoso han liberado a la IA de las restricciones que frenaron su potencial desde la década de 1940 hasta finales del siglo XX. En 2011, las redes neuronales profundas – IA que esencialmente podía aprender por sí misma – deslumbraron al mundo.
“La IA no ‘piensa.’ Las herramientas de IA son, de hecho, cálculos matemáticos altamente complejos.”
Hoy en día, el aprendizaje automático avanzado, el procesamiento de lenguaje natural (PLN), el reconocimiento de patrones, el reconocimiento de imágenes y voz, y los algoritmos que aparentemente predicen el futuro solo arañan la superficie del potencial de la IA y lo que puede ofrecer. Los líderes, desarrolladores y personas en todas partes deben asegurarse de que la humanidad pueda confiar en la IA que desarrolla.
No es tan facil eliminar sesgos de los datos que usamos en los modelos
Los desarrolladores deben eliminar sesgos de los datos que utilizan para entrenar los algoritmos de IA. En todos los ámbitos, alinee sus políticas de seguridad y protección de la IA con los valores corporativos.
Las personas esperan un trato equitativo, aunque se dan cuenta de que la equidad no es una cualidad fija. Depende del contexto. Esto complica el desarrollo y la evaluación de la equidad algorítmica o de máquinas porque la IA no puede pensar como los humanos. Es decir, no puede sopesar las circunstancias y matices que podrían hacer que la misma decisión sea justa para una persona e injusta para otra.
Los desarrolladores deben asegurarse de que los datos con los que la IA se entrena y aprende contengan el menor sesgo posible. Sus conjuntos de datos representativos deben evitar sesgos de selección y confirmación, que podrían restringir la exhaustividad o diversidad de sus datos o permitir que la información que se alinee con las opiniones del desarrollador domine. Los conjuntos de datos no deben contener ningún sesgo explícito de raza, género u otros. Sin embargo, los desarrolladores enfrentan dificultades para identificar y eliminar sesgos implícitos o inconscientes. Esto incluye estereotipos que los conjuntos de datos pueden contener en relación con raza, género, discapacidad u otros factores.
“Esperar que un equipo de científicos de datos construya modelos y asegure que se adhieran a conceptos éticos subjetivos puede ser una receta para resultados pobres y consecuencias costosas para la empresa.”
Por ejemplo, cuando una fuerza policial utiliza datos históricos de delitos para construir un modelo de IA que prediga dónde pueden ocurrir delitos en el futuro, el modelo podría contener datos que reflejan sesgos contra ciertos vecindarios. El algoritmo predecirá más delitos en esos vecindarios, lo que significa que más policías patrullarán allí y se producirán más arrestos, perpetuando potencialmente puntos de vista prejuiciados. Un algoritmo puede contener fácilmente muchos de estos sesgos, haciendo que la IA sea inherentemente injusta.
Solo las personas pueden asegurar el uso ético y justo de la IA. Los algoritmos siempre contendrán sesgos – si solo para que puedan hacer recomendaciones más específicas. La IA debe hacer recomendaciones, pero las personas, no solo los científicos de datos, sino idealmente diversos expertos de varios dominios, deben revisar los conjuntos de datos para detectar sesgos. Las personas deben tomar todas las decisiones consecuentes derivadas de las recomendaciones de la IA y la información que las respalda.
La IA debe cuadrar con el mundo real
La IA que funciona en el laboratorio debe funcionar en el mundo real. Los científicos de datos entrenan modelos de IA con datos del mundo real, esperando que operen bien en entornos reales. Pero esto no siempre sucede. A veces, un modelo se prueba como confiable en el laboratorio pero luego se deteriora a medida que las condiciones del mundo real evolucionan y el algoritmo del modelo no puede mantenerse al día. La IA “frágil” genera desconfianza porque a veces funciona, pero no siempre. La IA “robusta” funciona de manera consistente sin cambiar debido a circunstancias o condiciones cambiantes. Este grado de confiabilidad genera fe y confianza. Una IA robusta que opera un vehículo autónomo, por ejemplo, reconoce a los peatones en todas las condiciones climáticas, en la oscuridad o a la luz del día, y ya sea que caminen, gateen o salten por la carretera.
“Para que la IA sea confiable, debe ser robusta y confiable en situaciones del mundo real a lo largo del ciclo de vida de la IA.”
Los humanos se adaptan fácilmente y, en su mayoría, de manera subconsciente. Aprendiste de joven que te quemarías si tocas una sartén en una estufa caliente. Pero la IA no puede llegar a tal conclusión sin instrucciones explícitas. Crear instrucciones para cada conjunto potencial de circunstancias requiere un tiempo y pensamiento enormes.
La IA no generaliza, al menos, no hasta ahora. No puede tomar algo que aprende en un dominio – como cómo levantar un objeto de un estante y colocarlo en una cinta transportadora – y usarlo en otro, como colocar platos en un lavaplatos.
La confiabilidad de la IA depende de la calidad de los datos con los que se entrena; esos datos de entrenamiento, las entradas de la IA, deben reflejar las condiciones del mundo real. Debe ser completo y estar bien etiquetado. Entrenar modelos de IA exige enormes conjuntos de datos, por lo que los desarrolladores a veces deben agregar datos sintéticos – datos generados artificialmente que se asemejan a datos reales – para llenar los vacíos. La necesidad de confiabilidad varía. Por ejemplo, las personas exigen perfección en un entorno médico, pero permiten resultados que son “suficientemente buenos” cuando quieren una recomendación para un buen programa de televisión.
Las organizaciones deben realizar auditorías de datos regulares, probar la confiabilidad y monitorear el rendimiento de sus algoritmos de manera sistemática y rutinaria para asegurar su continua robustez.
Se Necesita Transparencia y explicabilidad
Para generar confianza, la IA debe ser transparente y explicable. Los algoritmos complejos pueden producir una “caja negra” en la que los datos ingresan y de la que emergen recomendaciones. Pero nadie – ni siquiera los científicos de datos que crearon los algoritmos – puede explicar las razones detrás de una recomendación de la IA.
Quienes implementan modelos de IA deben saber lo suficiente sobre cómo funcionan para describirlos en términos que la gente común pueda entender. Deben ser transparentes sobre la IA, incluyendo informar a las personas siempre que la IA influya en los procesos y decisiones que les afectan. Los gerentes transparentes no esperarían que los usuarios lean múltiples páginas de letra pequeña legal para comprender y consentir los términos y condiciones de uso. Sin embargo, no se necesita un 100% de transparencia. Algunos datos deben permanecer privados. Por ejemplo, las empresas deben poder proteger su propiedad intelectual (PI). Y, los líderes deben equilibrar estas demandas.
“La transparencia genera confianza en una gama de factores. Es el corazón palpitante de la IA ética y un componente esencial para capturar todo el potencial que estos sistemas pueden generar.”
Los científicos de datos optimizan sus algoritmos según prioridades. Por ejemplo, un GPS podría optimizar las rutas de tráfico para la velocidad, la distancia y el volumen de tráfico. Los usuarios deberían saber si la velocidad les importa más que otros factores, y por lo tanto, si pueden estar de acuerdo con una ruta recomendada o elegir otra que minimice la distancia.
Los algoritmos explicables permiten pruebas para asegurarse de que continúan haciendo lo que se supone que deben hacer: permiten a los analistas detectar sesgos y permiten la participación y las ideas de las partes interesadas. Dependiendo del caso de uso, las empresas que licencian herramientas de IA de proveedores deberían preguntar sobre la transparencia de la IA y cuán fácil es de explicar, especialmente cuando la IA ayudará a tomar decisiones importantes. Ya sea que licencies tecnología o la construyas internamente, mantén a las personas en el circuito en todo momento.
Seguridad y protección de la IA
Para generar confianza, se debe priorizar la seguridad de la IA. Reconoce que la IA es vulnerable a ataques. El espectro del cibercrimen va más allá de las filtraciones de datos privados a la manipulación de algoritmos y la inserción de sesgos u otros elementos no deseados. Incluso se extiende a la posibilidad de situaciones potencialmente mortales en fábricas y carreteras donde la IA maneja máquinas o vehículos. Los ataques y brechas de seguridad pueden exponer a las empresas a mal funcionamiento de productos o servicios, pérdida de secretos empresariales y propiedad intelectual, multas y demandas, y pérdida general de confianza por parte de trabajadores, clientes y otras partes interesadas.
Todos en una organización son responsables de su seguridad, por lo que capacita a todos tus empleados en medidas y protocolos de seguridad. Realiza evaluaciones de riesgos, especialmente de herramientas que licencias de terceros, e implementa mecanismos de seguridad, como la detección de intrusiones.
Para la seguridad, considera los daños físicos, psicológicos, económicos, ambientales y legales potenciales. Al adoptar protocolos de seguridad, pruébalos con frecuencia para asegurarte de que sean efectivos y funcionen en todas las condiciones.
“A medida que se desatan IA cada vez más sofisticadas en tareas de alta consecuencia, la seguridad no puede ser una idea posterior.”
Evalúa cualquier riesgo que, por ejemplo, los robots con IA podrían accidentalmente herir a alguien. Ten en cuenta que las brechas de datos y los sesgos en los algoritmos podrían causar daños económicos o legales. O, tal vez, una IA avanzada que se haga pasar por un humano podría afectar el estado mental de un usuario. Solo construir modelos de IA puede causar un daño ambiental sustancial debido a las vastas demandas de energía de sus microprocesadores. Entrenar un modelo de procesamiento de lenguaje natural puede producir tanto CO2 como 300 vuelos transamericanos de ida y vuelta o cinco veces las emisiones totales de por vida de un automóvil americano.
Hay desafios nuevos de privacidad de los datos
Más allá de la seguridad, se debe enfocar en la privacidad de los datos. Dondequiera que tengas datos identificables personalmente – especialmente cuando están vinculados a información sensible – prioriza las consideraciones de privacidad. Enormes cantidades de información personal fluyen hacia los sistemas gubernamentales y comerciales desde casi todo lo que las personas hacen hoy en día. Los individuos no pueden hacer un seguimiento de sus datos o de cada sistema o entidad a la que fluyen. Los recolectores y analistas de datos deben pedir el consentimiento de las personas para recopilar datos sensibles y luego deben proteger esos datos.
“Al observar patrones, la IA puede inferir un punto de datos sobre una persona aunque esa persona no haya compartido esa información.”
Los datos que las personas comparten entre entidades permiten una comprensión cada vez más profunda de los consumidores. Incluso cuando eliminas tu nombre del uso, la triangulación de datos podría identificarte. Esto crea la posibilidad de situaciones como que las aseguradoras reciban información sobre tus hábitos de conducción. Agrega reconocimiento facial y las herramientas de IA podrían identificarte y potencialmente revelar tu nombre y dirección aunque solo estés llevando a cabo tus asuntos privados. Las autoridades podrían necesitar intervenir para prevenir tales intrusiones. Algunos gobiernos nacionales y estatales ya han comenzado a implementar leyes de protección de datos y privacidad, como las ya vigentes en Europa y California.
Las empresas van a necesitar responsabilidad y rendición de cuentas en la IA
La IA debe ser responsable y rendir cuentas. Donde la IA hace recomendaciones y las personas toman la decisión, la responsabilidad de esa elección claramente recae en los seres humanos. Si la IA toma decisiones sin un humano en el circuito – en un vehículo autónomo, por ejemplo – asignar responsabilidad por las consecuencias negativas podría resultar más complicado. Sin embargo, poder asignar responsabilidad es crucial para establecer la responsabilidad laboral.
No puedes culpar a la IA ya que carece de autoconsciencia, pero puedes mejorarla. Si los desarrolladores pueden explicar los modelos de IA que crean, pueden aceptar responsabilidad y rendición de cuentas. La velocidad a la que cambia la IA y se lanzan nuevos sistemas a menudo desafía las categorías de responsabilidad.
“No se trata solo de lo que se puede hacer con la IA, sino de cómo debería hacerse – o si debería hacerse en absoluto.”
Las organizaciones deben asignar responsabilidad y rendición de cuentas o sus partes interesadas no confiarán en sus herramientas y procesos. En algunos casos, donde las posibles consecuencias no deseadas de una nueva innovación de IA son demasiado amplias o importantes, ser responsable significa no perseguir esa tecnología, sin importar cuán lucrativa sea la oportunidad.
Cuando los sistemas fallan, la ley casi con certeza considerará a las empresas que diseñan y proporcionan esos sistemas como responsables legales, con consecuencias financieras, si no penales, por negligencia. Una empresa que licencie una tecnología podría compartir la responsabilidad con el proveedor si algo sale mal. Las empresas deben reunir tantas perspectivas diversas como sea posible sobre las posibles consecuencias de todas las herramientas de IA que utilizan o crean.
Comentários