Ética de los datos: es hora de arriesgar, no solo cumplir

Pina: La privacidad no suele concebirse como el tema más estimulante del mundo. Aunque sea importante, no parece resultar interesante. ¿Cómo es posible motivar al equipo y al resto del mundo empresarial para que se tomen la ética de datos como un concepto determinante?

Barnard: Lo interesante de la ética de datos es aliviar las tensiones entre la innovación basada en los datos y las expectativas de privacidad de los usuarios. Lo interesante es sobrepasar los límites de lo técnicamente posible sin poner en peligro el compromiso con la seguridad, la privacidad y el bienestar de las personas.

Si quieres innovar y ser el primero en algo, sin poner en riesgo tus valores, tú mismo te pones alto el listón. Cuando concibes la privacidad como un derecho fundamental, protegerla se convierte en una fantástica recompensa.

Piensa, por ejemplo, en la inteligencia artificial (IA). Imagina que una empresa diseña un sistema de IA con su mejor intención. Pongamos que, aunque al principio funciona perfectamente, los ingenieros se dan cuenta seis meses después de que el sistema está tomando decisiones con consecuencias no deseadas. Identificar y resolver retos complejos como ese es muy interesante. Lo que motiva a muchas personas es descubrir cómo reprogramar los principios éticos y morales de los sistemas inteligentes. El entusiasmo deriva del reto.

Pina: En Google, nuestro entusiasmo gira en torno a la labor pionera que estamos desarrollando con el sector para crear Privacy Sandbox y ofrecer a los usuarios más control sobre sus datos. ¿Cuáles son los principales obstáculos que impiden a los ejecutivos y directivos aplicar los cambios necesarios en este ámbito? ¿Cómo pueden resolver los problemas éticos?

Barnard: Para crear un buen sistema, debemos intervenir en los dilemas éticos y resolverlos antes de que se conviertan en problemas. Partiendo de eso, debemos abordar tres obstáculos.

Primero, tenemos que reconocer los puntos débiles. Si somos poco conscientes de los riesgos éticos, pasaremos cosas por alto. Debemos aprender a identificar y abordar esos riesgos.

Imagina que un ingeniero crea un método para optimizar los porcentajes de clics. Si las decisiones del algoritmo empiezan a tener un efecto negativo sobre la diversidad o a excluir a ciertos usuarios, puede que el ingeniero no se dé cuenta. Sin embargo, si sabe que tiene que buscar activamente este tipo de comportamientos, podrá intervenir y adaptar la medición de los resultados de forma más inclusiva. Aunque esta responsabilidad es compartida, la fase de diseño es la primera a la que afecta. En lo que respecta a los responsables de gestión, es interesante que ofrezcan formación a los equipos para ayudarles a buscar los riesgos éticos conscientemente.

Sin embargo, para conseguirlo es necesario tener visibilidad total sobre el flujo de datos. Si no se conoce parte de ese flujo, identificar los riesgos y asegurarse de que se aplican marcos de gobernanza puede ser difícil. Eso suele ocurrir cuando el flujo empieza o acaba fuera de tu organización. Por eso es tan importante trabajar con empresas transparentes que compartan tus valores y principios éticos.

Acerca de Social Media Business 185 Articles
Tu lugar de referencia en el mundo del Marketing Digital, Realidad Virtual, Social Media y el Social Business. Email: socialmedia@smediabusiness.com

Be the first to comment

Leave a Reply

Tu dirección de correo no será publicada.


*


Ver más

  • Responsable: Flovit.co Identidad Digital.
  • Finalidad:  Moderar los comentarios.
  • Legitimación:  Por consentimiento del interesado.
  • Destinatarios y encargados de tratamiento:  No se ceden o comunican datos a terceros para prestar este servicio.
  • Derechos: Acceder, rectificar y suprimir los datos.
  • Información Adicional: Puede consultar la información detallada en la Política de Privacidad.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.