El jefe de la división de Inteligencia Artificial de Google también está preocupado por los peligros que puede entrañar esta tecnología. No, no le preocupan que las máquinas puedan tomar el control como dice Elon Musk, sino más bien que tomen decisiones erróneas por no ofrecerles todos los datos que necesitan.
"La verdadera pregunta en torno a la seguridad, si se le quiere llamar así, es que si le damos a estos sistemas datos sesgados, ellos mismos estarán sesgados", ha expuesto John Giannandrea en una conferencia en torno a la relación entre humanos e IA. Vamos, que si no les damos los datos suficientes como para que las máquinas entiendan los posibles contextos, estas estarán condenadas a ser injustas.
De hecho, ya os contamos que ya se están denunciando estas decisiones injustas por parte de los sistemas de IA, y que ya hay personas revelándose contra el delegar demasiado en los algoritmos. Además, el problema tiene el potencial para ir a más a medida que estas se vayan extendiendo a áreas especialmente delicadas como la medicina o el derecho.
Por lo tanto, parece que para el máximo responsable de IA en Google el problema no está tan afincado en el futuro como el de una posible rebelión de las máquinas, sino que es algo que parece estar empezando a pasar. Su receta para atajar el problema es la transparencia, y así lo indicó en su charla durante la conferencia.
"Es importante que seamos transparentes acerca de los datos de entrenamiento que estamos utilizando, y buscar prejuicios ocultos, de lo contrario estamos construyendo sistemas sesgados", agregó Giannandrea. "Si alguien está tratando de venderte un sistema de caja negra para el apoyo a la decisión médica, y no sabes cómo funciona o qué datos se utilizaron para entrenarlo, entonces yo no confiaría en él".
Pero Google no parece predicar con el ejemplo
Las palabras del jefe de la división de Inteligencia Artificial de Google tienen sentido, la transparencia es uno de los puntos clave, pero su empresa no parece predicar demasiado con el ejemplo en sus algoritmos. Lleva guardando celosamente el secreto de algoritmos como el de su buscador todos estos años, y aunque lo revisa con frecuencia, apenas ofrece información sobre qué parámetros influyen en que un resultado aparezca por encima de otro.
Y esta es una práctica que realizan muchas otras empresas líderes en tecnología con sus algoritmos, pues todos ellos tienen un "santo grial" que les hace aventajar a la competencia, una receta de la Coca-Cola en el mundo de Internet que no están dispuestos a liberar.
Esa actitud de hecho le da más fuerza a la tesis de Giannandre. Si diseñas una máquina que toma decisiones y te está dando dinero, lo más probable es que no expongas públicamente el algoritmo, sino que te guardes toda esa información para no perder tu ventaja ante la competencia. Y eso precisamente puede causar el problema, ya que la gente no sabrá hasta qué punto la información que alimenta esas decisiones es sesgada.
Imagen | TechCrunch
En Xataka | Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos
Ver 3 comentarios
3 comentarios
whisper5
Creo que hay muchas más cosas que las decisiones sesgadas que se nombran en el artículo.
Es cierto que los algoritmos de inteligencia artificial son cajas negras de las que no se pueden extraer las razones que han llevado a un determinado resultado.
Las empresas guardan los datos para entrenar a sus sistemas de inteligencia artificial con celo. En la mayoría de los casos tener o no tener esos datos marca la diferencia entre poder o no poder desarrollar sistemas inteligentes. La empresas no van a hacer públicos sus datos para que podamos comprobar su carencia de sesgos.
Una parte importante de la actual inteligencia artificial se usa para establecer correlaciones entre unos datos de entrada y otros de salida. Algunas veces tienen sentido, pero otras no y resultan una aberración. Por ejemplo cuando el año pasado un desarrollo en inteligencia presumía de poder determinar si una persona era criminal o no a través de su cara. Este ejemplo puede parecer muy evidente, ¿pero qué pasa cuando los sistemas establecen falsas correlaciones entre los cientos de datos que tienen las empresas de nosotros y decisiones como la concesión de un crédito, aprobación o rechazo de un seguro, contratación laboral, etc.?
Otro motivo de preocupación (que evidentemente no nombra Google) es el poder de la inteligencia artificial para crear perfiles muy detallados de las personas a través de los miles de datos que Google, Facebook, Amazon, etc. tienen sobre nosotros. La invasión de la privacidad que suponen y el uso y comercio que existe con estos datos y que desconocemos es muy preocupante.
Las legislaciones sobre protección de datos están a años luz de la realidad tecnológica actual. En el tiempo que se debaten las leyes la tecnología ya ha evolucionado tres pasos más allá. Respecto al uso de la inteligencia artificial (hasta donde yo sé) no se ha legislado nada. Existen sistemas de inteligencia artificial en el manejo de nuestros datos para todo, y ya se usan de forma totalmente opaca para decisiones sobre créditos, financiaciones, concesión de seguros, creación de perfiles de candidatos a un puesto laboral, etc. Al ser en su mayoría cajas negra no tenemos forma de conocer las injusticias que podrían estar cometiendo. Además, a las empresas les da igual. Si utilizando alguno de estos sistemas una empresa ahorra dinero le va a dar igual si en un, por ejemplo, 5% de los casos se está perjudicando a las personas (seguimos primando la economía frente a las personas).
ZellDich
Bueno esto lo piensan asi por los coches autonomos mas que por las ia, ya que como ia ahora mismo no existe nada, pero las opciones de si salvar a la persona q cruza donde no debe y estrellarnos a nosotros si es una decision clave, si por la velocidad el coche calcula que el choque no es mortal y asi salvar a ambos.. o le atropella y queda el conductor a salvo ya que es el peaton el que comete infraccion y el coche no debe poner en peligro al conductor