Autor: Ricardo Aguilar

Apple suspende temporalmente el programa por el que terceros escuchaban grabaciones de los usuarios a través de Siri

Apple suspende temporalmente el programa por el que terceros escuchaban grabaciones de los usuarios a través de Siri

Apple suspende temporalmente el programa por el que terceros escuchaban grabaciones de los usuarios a través de Siri

Apple anunció el pasado jueves que su programa interno para que grupos de personas analicen algunas de las grabaciones realizadas por Siri está siendo suspendido. The Guardian puso sobre la mesa la existencia de este programa, haciéndose eco de que los trabajadores de Apple escuchaban todo tipo de conversaciones, desde tratos con drogas a personas manteniendo relaciones sexuales.

En un intento de salvaguardar la privacidad, uno de sus principales bastiones, la compañía ha enviado un comunicado a TechCrunch, afirmando que revisará el proceso que utiliza para analizar estas grabaciones, además de permitir elegir a los usuarios si quieren participar o no en este proceso de calificación.


Una suspensión temporal del programa mientras se busca un mejor método

Siri

The Guardian informó sobre dichas grabaciones a través de Siri, las cuales eran enviadas a los servidores de Apple para ser, posteriormente, analizadas por equipos dedicados a ello. Si bien Apple asegura que el número de grabaciones no supera el 1% de las activaciones diarias de Siri, procede a cancelar dicho programa, mientras realiza una revisión acerca de un mejor método para salvaguardar la privacidad de los usuarios.

“Estamos comprometidos con proporcionar una gran experiencia con Siri al mismo tiempo que protegemos la privacidad del usuario. Mientras llevamos a cabo una exhaustiva revisión, hemos suspendido el programa global de calificación de Siri. Además, como parte de una futura actualización de software, los usuarios podrán elegir el participar en este programa”

Como adelantamos, recopilar información sobre las grabaciones posteriores a la activación de Siri puede implicar escuchar todo tipo de informaciones personales, como detalles de negocios, operaciones con drogas e incluso relaciones íntimas. Apple pasará a revisar su programa de calificación, y dejará a los usuarios decidir si quieren o no formar parte del mismo.

Las grabaciones sin permiso del usuario están más cerca de su fin

Oye Siri

Hoy es Apple y ayer (literalmente), fue Google. El Comisionado de Hamburgo para la Protección de Datos y Libertad de la Información ha prohibido a Google que sus equipos humanos analicen grabaciones de voz durante un plazo de tres meses.

Europa está empezando a mover ficha contra el análisis humano de grabaciones obtenidas con los asistentes de voz. El Comisionado de Hamburgo advierte a la principales compañías y castiga a Google

Del mismo modo, han puesto sobre la mesa que compañías como Apple o Amazon deben poner medidas para preservar la privacidad de los usuarios y, que en todo caso, los mismos sean informados sobre este tipo de prácticas. Tal y como cuentan en Xataka, ni Apple, ni Google, ni Amazon especifican en sus términos que haya humanos oyendo lo que les decimos a nuestros asistentes, una práctica que podría tener sus días contados, según lo que estamos viendo durante las últimas semanas.

Vía | Bloomberg

También te recomendamos


Francia aprueba una ‘tasa Google’ inspirada en el frustrado impuesto europeo a grandes tecnológicas


Un adolescente demanda a Apple 1.000 millones de dólares por un arresto erróneo producido por su reconocimiento facial


La Corte Suprema de Estados Unidos dictamina que los usuarios pueden demandar a Apple por subir precios en la App Store


La noticia

Apple suspende temporalmente el programa por el que terceros escuchaban grabaciones de los usuarios a través de Siri

fue publicada originalmente en

Genbeta

por
Ricardo Aguilar

.

El MIT desarrolla una IA que detecta artículos y todo tipo de textos generados por otras IA

El MIT desarrolla una IA que detecta artículos y todo tipo de textos generados por otras IA

Los usos de la inteligencia artificial cada vez son mayores, y algunos de ellos se centran en el lenguaje, como la IA de Microsoft que promete mejorar nuestra escritura de forma automática. Con otros ejemplos, como Deep TabNine, una he…

“Las recomendaciones de YouTube son tóxicas”: un ex-trabajador de Google cuestiona cómo funciona el algoritmo de YouTube

“Las recomendaciones de YouTube son tóxicas”: un ex-trabajador de Google cuestiona cómo funciona el algoritmo de YouTube

“Las recomendaciones de YouTube fueron diseñadas para que pierdas el tiempo”. Así de claro y conciso habla Guillaume Chaslot, un antiguo trabajador de Google que trabajó desarrollando el propio algoritmo de YouTube. La red social, que cuenta con un abanico prácticamente infinito de vídeos, está diseñada, según el ex-trabajador, para que nos volvamos adictos a ella, sin importar realmente el contenido que quiere visualizar el usuario.

Según cuenta en su página web, el algoritmo de YouTube genera el 70% de las visitas del medio. Del mismo modo, afirma que el principal problema del mismo es que no se centra en las necesidades del usuario, sino en retenerlo dentro de los vídeos, aunque la calidad de los mismos sea cuestionable.


El contenido límite, atractivo, pero no prohibido

Terraplanismo

Según Chaslot, YouTube se centra en mostrarnos contenido límite. Este, es el que roza la infracción de las propias políticas de YouTube, y precisamente, juega con dicho límite para presentarse como un contenido más atractivo. El antiguo trabajador de Google, afirma que este tipo de contenido es tóxico, y que, precisamente, es el que más ingresos genera a los creadores.

“Tenemos que darnos cuenta de que las recomendaciones de YouTube son tóxicas y pervierten las discusiones cívicas. En este momento, el incentivo es crear este tipo de contenido límite que sea muy atractivo, pero no prohibido. Básicamente, cuanto más extravagante sea el contenido, mayor será la probabilidad de que la gente siga mirando, lo que a su vez hará que sea más probable ser recomendado por el algoritmo, lo que genera mayores ingresos para el creador y para YouTube”.

Como las palabras sin hechos no sirven de nada, Chaslot, tras abandonar su puesto en Google, creó la página AlgoTransparency, con el objetivo de informar sobre las recomendaciones de YouTube de una forma más clara. El ejemplo en el que más se centra, es en la forma de recomendar que propuso YouTube tras las noticias sobre la publicación del informe Mueller, en el que se proporcionaba información sobre las relaciones entre Rusia y Estados Unidos durante la campaña de Donald Trump en 2016.

This video funded by the Russian government was recommended more than half a million times from more than 236 different channels.https://t.co/aRNUx2WIOm

2/

— Guillaume Chaslot (@gchaslot) 26 de abril de 2019

Más de 236 canales de YouTube empezaron a recomendar un vídeo subvencionado por el propio gobierno ruso, algo que, según Chaslot no termina de entenderse, viendo las pocas reproducciones que tenía el vídeo, y cómo canales mucho más grandes y con más visitas tenían vídeos sobre esta misma temática.

Según la propia Google, en palabras para The Next Web, las afirmaciones de Chaslot sobre que YouTube se centra en mostrar contenido límite no son ciertas, afirmando que el algoritmo se basan en los likes, dislikes, veces que se comparte el vídeo, y autoridad del propio canal.

“Como con la mayoría de las afirmaciones hechas por AlgoTransparency, no hemos podido reproducir los resultados. Hemos diseñado nuestros sistemas para garantizar que el contenido de fuentes más autorizadas aparezca de manera prominente en los resultados de búsqueda y vea las siguientes recomendaciones en ciertos contextos, incluso cuando un espectador está viendo contenido relacionado con noticias en YouTube”.

Un algoritmo que no se libra de polémicas

YouTube

Independientemente del grado de razón que lleve o no el antiguo trabajador de Google, el algoritmo de YouTube parece no librarse de polémicas. Como nos hicimos eco hace un tiempo, en el listado de Tendencias de YouTube no era difícil encontrar contenido clickbait y cuestionable en cuanto a su calidad, como los ejemplos que mostramos a continuación.

  • VUELVO A LA MANSIÓN Y ME DAN UN REGALO SORPRESA [Dualcoc]
  • ME VOY DE CASA Y ME DESPIDO DE MI NOVIA..
  • BROMA TELEFÓNICA A NUESTRO JEFE | Ft. Joaquin PA
  • FRASES DE REGGAETON EN LA VIDA REAL 2 | Celopan
  • PANCAKE “ART” CHALLENGE – CLASH ROYALE
  • Creamos el CAFE mas GRANDE del mundo en la BAÑERA y nos METEMOS DENTRO !!
  • ADIVINAS SU EDAD??? � 100% IMPOSIBLE

En febrero de este mismo año, YouTube hizo cambios profundos en la plataforma, admitiendo que los usuarios se estaban quejando por el contenido “basura”, la búsqueda del click fácil, y los títulos y las descripciones engañosas. En este mismo momento, el propio Charlot consideraba este cambio toda una victoria, y es que la plataforma prometía dejar de recomendar vídeos tan polémicos como aquellos dedicados a explicar que la Tierra es plana.

“Ejemplo de este círculo vicioso: hace dos años descubrí que la IA promovía muchas informaciones conspiranoicas en mayor proporción que las verdaderas. Por ejemplo, los vídeos de la Tierra Plana se promovían en torno a diez veces más que los de la Tierra redonda”.

El trabajador de Google, tiempo atrás, había descubierto que se recomendaban más vídeos sobre terraplanismo que sobre aquellos que contaban la verdad, y que se generaban más visitas, más anuncios y más dinero fomentando las visualizaciones de los primeros.

YouTube announced they will stop recommending some conspiracy theories such as flat earth.

I worked on the AI that promoted them by the *billions*.

Here is why it’s a historic victory. Thread. 1/https://t.co/wJ1jbUcvJE

— Guillaume Chaslot (@gchaslot) 9 de febrero de 2019

Del mismo modo, han caído sobre YouTube fuertes críticas por haber servido a una red de pedófilos para comunicarse a través de la plataforma, a través de vídeos de niñas de 10 años probándose bikinis, estirándose o jugando. Vídeos con miles de reproducciones que la plataforma recomendaba a estos usuarios, y que hizo que grandes compañías como Nestlé o Epic Games retirasen campañas publicitarias en YouTube y Google.

Vía | The Next Web

También te recomendamos


‘Kidfluencers’, o cómo trazar la fina línea entre pasarlo bien en YouTube y el trabajar a los siete años


Nuevas ‘deepfakes’ permiten poner palabras en la boca de cualquiera con simplemente escribirlas


Conductores de Uber y Lyft aumentan artificialmente los precios manipulando el algoritmo de sus servicios en Estados Unidos


La noticia

“Las recomendaciones de YouTube son tóxicas”: un ex-trabajador de Google cuestiona cómo funciona el algoritmo de YouTube

fue publicada originalmente en

Genbeta

por
Ricardo Aguilar

.

Amazon presenta StyleSnap: su propio “Shazam” para encontrar ropa a través de la cámara del móvil

Amazon presenta StyleSnap: su propio “Shazam” para encontrar ropa a través de la cámara del móvil

Amazon tiene su propia sección de ropa, en la que encontramos desde primeras marcas a prendas más genéricas y económicas. En pos de facilitar a los usuarios la búsqueda de productos, acaba de anunciar StyleSnap, una función bastante si…

De no poder salir de casa a no acceder al correo: así ha afectado la gran caída de la nube de Google

De no poder salir de casa a no acceder al correo: así ha afectado la gran caída de la nube de Google

La pasada noche, sobre las 21:00 hora española, Google sufrió una caída a nivel mundial, dejando prácticamente todos sus servicios sin conexión. El propio buscador, YouTube, Gmail, Analytics y su propia nube no han sido una excepción.