RSA 2020 – ¿Te está mintiendo tu computadora de aprendizaje automático / cuántica?


¿Y cómo saber si el algoritmo fue alterado?

La computación cuántica es el nuevo heredero aparente para AI en términos de número de reclamos de seguridad salvaje. Hace varios años, podía agregar inteligencia synthetic a una frase de advertising and marketing y luego vender productos de importación vacía. Esa corona está rezumando hacia lo cuántico. Agregue cifrado y obtendrá un aumento, tal vez incluso una OPI. En RSA, sin embargo, hay un grupo de computación cuántica true que trabaja en problemas reales, el problema de si los números «aleatorios», utilizados como entrada para algoritmos criptográficos generados por la computación cuántica, pueden ser falsificados.

Mientras que otros sistemas de computación cuántica se toman la molestia de generar un número aleatorio bastante maldito para usar en claves criptográficas (que definitivamente es algo bueno), no son muy buenos para dar fe de si el número resultante ha sido manipulado. Juega con el número «aleatorio» y puedes manipular las claves criptográficas para que se rompan.

Entrar Cambridge Quantum Computing. En RSA, han trotado una máquina que genera una especie de prueba inalterable para cada número generado en forma de un par de fotones polarizados horizontal y verticalmente: modifique uno y podrá verlo. El enredo cuántico es tal que puedes hacer eso. Esto significa que puede obtener claves aleatorias certificables. No tiene que confiar en nadie, por lo que un primer dispositivo demostrable de Zero Have confidence in Safety es una adición bienvenida aquí.

¿Cómo lo revisas? Utilizando la Desigualdad de campana método para verificar claves aleatorias que se pensó en 1964. Incluso si no sabe qué es eso, el punto es que hay una manera de verificar la integridad, algo que de otro modo sería más difícil de alcanzar.

Hablando de mentirte, ¿cómo saber si esos últimos algoritmos de Machine Finding out fueron alterados?

Existe un concepto llamado «el derecho a una explicación» que existe en el mundo true, pero quizás no en los materiales de marketing generados por las empresas de vaporware. Esto significa que si le pedimos a un modelo de ML que nos dé una respuesta, ¿cómo sabríamos si está sesgada? ¿Quién está revisando? ¿Cómo sabríamos si las entradas o salidas han sido manipuladas?

Si una máquina de ML determina si usted es un buen riesgo para una hipoteca de una vivienda, ¿no le gustaría saber por qué la rechazó? ¿Algo además de «es muy complicado»?

Los modelos ML han tenido que lidiar con resultados fallidos en datos de baja dimensión como imágenes, donde los operadores podían detectar dónde se equivocaban los modelos mirando imágenes y verificando visualmente los resultados para detectar anomalías. Pero en los datos de alta dimensión, como el modelado de datos típicamente complejo en el mundo real, es casi imposible para un operador «ver» dónde las cosas pueden estar torcidas.

Y este es el problema: determinar si «el modelo me obligó a hacerlo» o si alguien ha estado suministrando datos malos del modelo, intencionalmente o simplemente a través de una metodología incorrecta, básicamente manipulando el modelo para favorecer un resultado que los datos no pueden o no pueden aún, apoyo.

Por lo basic, la respuesta ha sido alimentar al modelo con más datos y dejar que la máquina mágica se agite. Los volúmenes más grandes de datos de entrenamiento son realmente útiles, pero no en el caso de que alguien esté tratando de manipular el resultado.

De la misma manera, Cambridge Quantum busca proporcionar una nueva «prueba» de un número aleatorio inalterado, el aprendizaje automático podría usar algún tipo de prueba además de «es muy complicado». Podemos manejar complicados, pero cuando más importa, esa no es una respuesta muy satisfactoria, si es que es una respuesta.

En su ausencia, ¿quién es responsable cuando la máquina se equivoca y envía un misil físico fuera de curso? «La guía de IA del misil lo hizo girar» no es una respuesta que los humanos puedan soportar por mucho tiempo. Tampoco debemos confiar ciegamente en las máquinas que pronto guiarán muchas de las decisiones importantes que afectarán nuestras vidas. Y mientras que en una sesión aquí en RSA, se mencionó un grupo de trabajo sobre la detección de sesgos en los sistemas de inteligencia artificial, en este punto hay poco concreto. Esperamos que haya pronto.








Enlace a la noticia first