Viernes, 22 de septiembre del 2017
Idioma Es Pt En

Un hombre calvo, de unos sesenta años, mueve con sus espátulas de madera unos trozos de carne dentro de una sartén. Lleva gafas de pasta, vaqueros y está frente a los fogones de su pequeña cocina, decorada en tonos claros. Al ver esta imagen, la inteligencia artificial lo tiene claro y gracias a su sofisticado aprendizaje etiqueta lo que ve: cocina, espátula, fogones, mujer. Si está en una cocina, entre fogones, debe ser una mujer. Un equipo de la Universidad de Virginia acaba de publicar un estudio en el que señala una vez más lo que muchos especialistas vienen denunciando: la inteligencia artificial no solo no evita el error humano derivado de sus prejuicios, sino que puede empeorar la discriminación y está reforzando muchos estereotipos.

En su trabajo, estos científicos pusieron la lupa en las imágenes de dos gigantescos bancos de imágenes, de los que se usan habitualmente para entrenar a las máquinas. Y, sobre todo, en lo que aprendían de ellas. Inicialmente, los hombres protagonizaban un 33% de las fotos que contenían personas cocinando. Tras entrenar a la máquina con estos datos, el modelo mostró su flaqueza: dedujo que el 84% de la muestra eran mujeres. "Se sabe que las tecnologías basadas en big data a veces empeoran inadvertidamente la discriminación debido a sesgos implícitos en los datos", advierten los autores. "Mostramos que partiendo de un corpus sesgado de género", añaden, los modelos predictivos "amplifican el sesgo".

Las máquinas se hacen más sexistas, racistas o clasistas porque identifican la tendencia subyacente y apuestan por ella para atinar. Ya es bien conocido el caso de Tay, el robot inteligente que Microsoft diseñó para que se integrara en la conversación de Twitter aprendiendo de los demás usuarios: tuvo que retirarlo en menos de 24 horas porque empezó a hacer apología nazi, a acosar a otros tuiteros y a defender el muro de Trump. A estas alturas, los ejemplos de algoritmos que exacerban prejuicios o discriminaciones son innumerables y ponen en entredicho la gran promesa de estos sistemas: retirar de la ecuación el error humano. Los algoritmos nos condenan a repetir el pasado del que queríamos escapar al replicar los prejuicios que nos definían.

"Las tecnologías basadas en big data a veces empeoran la discriminación debido a sesgos implícitos en los datos", advierten los autores

Google comenzó a etiquetar a personas negras como gorilas y Google Maps ubicaba la "casa del negro" en la Casa Blanca de la era Obama. Las fotos de los usuarios negros de Flickr se clasificaron como "chimpancés". La inteligente Siri de Apple, que tiene respuesta para todo, no sabe qué decircuando la dueña del móvil le dice que ha sido violada. El software de Nikon advierte al fotógrafo de que alguien ha parpadeado cuando el retratado tiene rasgos asiáticos. Las webcam de HP no son capaces de identificar y seguir los rostros más morenos, pero sí los de blancos. El primer certamen de belleza juzgado por un ordenador colocó a una única persona de piel oscura entre los 44 vencedores. En EE UU, Amazon deja fuera de sus mejores promociones a los barrios de mayoría afroamericana (más pobres). Facebook permite a los anunciantes que excluyan de su target comercial a minorías étnicas y, en cambio, que incluyan a personas que se identifican explícitamente como antisemitas o a jóvenes que sus algoritmos han identificado como vulnerables y depresivos. 

"Prometiendo eficiencia e imparcialidad, distorsionan la educación superior, aumentan la deuda, estimulan el encarcelamiento masivo, golpean a los pobres en casi todas las coyunturas y socavan la democracia", denuncia Cathy O'Neil, especialista en datos y autora del revelador libro Armas de destrucción matemática (Weapons of Math Destruction, Crown), en el que desmenuza todos los desastres algorítmicos a partir de su formación como doctora en Matemáticas en Harvard y su experiencia laboral como data scientist en el mundo financiero. "Ir a la universidad, pedir prestado dinero, ser condenado a prisión o encontrar y mantener un trabajo. Todos estos campos de la vida están cada vez más controlados por modelos secretos que proporcionan castigos arbitrarios", alerta.

Google comenzó a etiquetar a personas negras como gorilas y Flickr las clasificó como chimpancés

Como dice O'Neil, los prejuicios de los algoritmos pueden ser mucho más peligrosos y trascendentales. Lo comprobó hace unos meses la redacción de ProPublica, al descubrir que un programa que se usa en la Justicia de EE UU para pronosticar la reincidencia de los presos era notablemente racista. Los acusados negros eran el doble de propensos a ser mal etiquetados como probables reincidentes (y tratados más duramente por el sistema penal), mientras que los acusados blancos que sí reincidieron fueron etiquetados como de bajo riesgo con el doble de probabilidad que los negros. Los ciudadanos, y por supuesto los convictos, ignoran que su futuro lo está decidiendo un programa informático viciado que va a ser tan racista como el juez más racista. Fría, sosegada y concienzudamente racista.

Una investigación de la Universidad Carnegie Mellon descubrió que las mujerestienen menos posibilidades de recibir anuncios de trabajos bien pagados en Google. Los programas que se usan en los departamentos de contratación de algunas empresas han mostrado inclinación por nombres usados por blancos y rechazan los de negros. Las autoridades policiales de varias ciudades usan programas que les ayudan a pronosticar los lugares en los que es más probable que haya delincuencia; de este modo, acuden más a estas zonas, detienen de nuevo a más gente allí y refuerzan el ciclo negativo. Y los seguros son más caros y severos para residentes en barrios pobres de mayoría negra. "El resultado es que criminalizamos la pobreza, creyendo que nuestras herramientas no son solo científicas sino justas", resume esta especialista.

"Prometiendo eficiencia e imparcialidad, golpean a los pobres en casi todas las coyunturas y socavan la democracia", denuncia Cathy O'Neil

Como señala O'Neil en su libro, en algunos casos, los problemas del algoritmo se deben a un problema en la selección de los datos. En otros, se debe al prejuicio subyacente en la sociedad, que el software simplemente hace suyo para acertar. Pero el mayor problema es el modelo económico: "Cuando se están construyendo sistemas estadísticos para encontrar clientes o manipular a deudores desesperados, los ingresos crecientes parecen mostrar que están en el camino correcto. El software está haciendo su trabajo. El problema es que los beneficios terminan sirviendo como un sustituto de la verdad". O'Neil denuncia que esto es una "confusión peligrosa" que surge "una y otra vez". Facebook deja que su algoritmo seleccione y venda anuncios a "gente que odia a los judíos" y "adolescentes vulnerables" porque se hace rico con ello; si les pagan, no pueden estar equivocados.

Un regulador frente a la opacidad

Son problemas descubiertos por periodistas, investigadores e instituciones. O cuando se hacen manifiestos y obligan a la empresa a corregirlos, pero ¿qué pasa con todos los procesos que ya están mecanizados y desconocemos cómo nos afectan? ¿Cómo sabrá una mujer que se la privó de ver un anuncio de trabajo? ¿Cómo podría una comunidad pobre saber que está siendo acosada policialmente por un software? ¿Cómo se defiende un delincuente de una minoría étnica que ignora que un algoritmo le señala? Facebook y Google, por ejemplo, son perfectamente conscientes de este problema y hasta nos explican cómo sucede, pero son absolutamente opacos y no permiten a nadie vigilar de un modo eficiente estos sesgos, critica O'Neil. Hay muchos más programas de este tipo aplicándose en el sistema judicial estadounidense, pero sus sesgos se desconocen, porque cada empresa mantiene sus algoritmos secretos, como la fórmula de la Coca-Cola.

El software está haciendo su trabajo. El problema es que los beneficios terminan sirviendo como un sustituto de la verdad", critica la especialista

Si el algoritmo se ha convertido en ley, debe ser transparente, accesible, discutible y enmendable, como la ley misma. Es lo que exigen cada vez más especialistas y organismos, como la Liga para la Justicia Algorítmica o Inteligencia artificial ahora, que aseguran que el problema de las máquinas inteligentes son sus prejuicios sociales rampantes y no que vayan a provocar un apocalipsis al estilo Terminator. Y que, por tanto, hace falta crear reguladores públicos que revisen sus sistemas. Es una crisis que no va a hacer sino crecer: hace unos días escandalizaba un polémico algoritmo que pretendía identificar a los gais por su cara; en EE UU, por ejemplo, ya la mitad de la población tiene su rostro registrado en bases de datos policiales de reconocimiento facial. Y los gigantes de la red ya conocen hasta nuestra orientación sexual incluso sin ser usuarios de sus servicios. "No podemos contar con el libre mercado para corregir estos errores", zanja O'Neil.

Publicado en Internet

Las acciones de las empresas tecnológicas para contrarrestar el extremismo en línea que comparten grupos terroristas no son suficientes y la industria puede hacer aún más, reconoció Facebook durante una reunión entre líderes políticos y ejecutivos del sector en la Asamblea General de las Naciones Unidas en Nueva York.

La red social señaló que emplea a miles de revisores de contenidos en todo el mundo, mientras que un equipo de 150 personas se dedican a combatir el terrorismo en su plataforma; sin embargo, junto con Google, advirtieron que el uso de tecnologías emergentes de inteligencia artificial para detectar material peligroso aún no era infalible.

Facebook dijo que ha acelerado sus esfuerzos, en particular mediante el uso de inteligencia artificial, para señalar el contenido extremista y compartir estos datos con empresas rivales.

Monika Bickert, directora de gestión de políticas mundiales de Facebook, explicó que la inteligencia artificial permite identificar imágenes terroristas en el momento de la carga para detener su publicación, entiende las señales basadas en texto para el apoyo terrorista, elimina clusters terroristas y contenidos relacionados, y detecta nuevas cuentas creadas por delincuentes reincidentes.

Pero la supervisión humana todavía es necesaria porque existen limitaciones en la tecnología, mencionó Bickert en la cumbre. La inteligencia artificial “puede detectar la insignia o bandera de un terrorista, pero le cuesta interpretar la intención de un cartel”, señaló.

 

Theresa May, la primera ministra del Reino Unido, el presidente de Francia, Emmanuel Macron, y el primer ministro de Italia, Paolo Gentiloni, se reunieron en la Asamblea General con ejecutivos de Google, Facebook, Microsoft, Twitter y otras empresas tecnológicas. Ahí, May instó a los líderes de las compañías a acelerar el trabajo para detectar y remover el contenido terrorista en línea y establecer un objetivo de dos horas para su eliminación después de la primera publicación.

Publicado en Tecnología

El aumento de los servicios de streaming en línea como Netflix y HBO Go ha cambiado drásticamente los hábitos de consumo de medios de comunicación de los estadounidenses, especialmente los adultos jóvenes, según un nuevo estudio publicado por el Pew Research Center (PRC).

Cerca de seis de cada diez jóvenes en edades entre 18 a 29 años (61%) dicen que la principal manera de ver la televisión ahora es con servicios de streaming en Internet, en comparación con 31 por ciento que dicen que principalmente consumen TV a través de una suscripción por cable o satélite y 5 por ciento que principalmente ven TV con una antena digital, según una encuesta del PRC realizada en agosto.

Otros grupos de edad son menos propensos a utilizar los servicios de streaming de Internet y son mucho más propensos a citar la televisión por cable como la principal manera de ver la televisión. En general, 59 por ciento de los adultos estadounidenses dicen que las conexiones por cable son su principal medio de ver la televisión, mientras que 28 por ciento citan los servicios de streaming y 9 por ciento dicen usar antenas digitales.

Entre otros otros hallazgos de la encuesta, las mujeres son más propensas que los hombres a decir que su principal manera de ver la televisión es a través de la suscripción por cable (63% frente a 55%), a la vez que los hombres son más propensos que las mujeres a decir que su vía principal es el streaming en línea (31% vs. 25%).

 

Además, 37 por ciento de los adultos más jóvenes que prefieren ver las noticias en vez de leerlas, citan la web, no la televisión, como su plataforma de elección. Las redes sociales también son una fuente creciente de noticias: dos tercios de los adultos, incluyendo 78 por ciento de los menores de 50 años, obtienen al menos algunas noticias de los sitios de redes sociales.

Publicado en Noticias

La propaganda yihadista genera millones de clics en todo el mundo y se ha convertido en una nueva herramienta de la cada vez más temida "Netwar"(guerra en la red), que se nutre de internet para difundir sus mensajes extremistas.

Y así como las tropas avanzan o retroceden sobre el terreno, los tuits, videos, fotos y posts de redes sociales se propagan por la red como un enjambre de abejas en busca de miel.

El objetivo: reclutar seguidores y, en última instancia, lograr su radicalización.

El centro de investigación británico Policy Exchange acaba de publicar los resultados de un análisis a gran escala sobre este fenómeno, elaborado por tres académicos especialistas en la materia.

En su informe de 130 páginas explica cómo usan internet los extremistas, en qué países tienen más éxito y qué se puede hacer para combatirlo.

Y sitúa a Reino Unido -foco de más de cinco ataques calificados como "terroristas" en lo que va de año- en una posición preocupante: es el segundo país europeo en el que se consume más contenido yihadista.

El primero en la lista es Turquía, seguido de Estados Unidos, Arabia Saudita e Irak.

Principales audiencias de contenido yihadista en internet*

*segun número de clics entre febrero y mayo de 2017

1. Turquía

16.810 clics

2. EE.UU.

10.388 clics

  • 3. Arabia Saudita 10.239 clics

  • 4. Irak 8.138 clics

  • 5. Reino Unido 6.107 clics

  • 6. Egipto 5.410 clics

Fuente: Exchange Polic, "The New Netwar: Countering Extremism Online", 2017
Getty Images

Los especialistas contaron el número de clics en enlaces con contenido extremista -de corte yihadista- entre el 19 de febrero y el 3 de mayo de 2017 y detallaron cuáles fueron los sitios web más visitados.

Un enlace corto a una página de Telegram y varios de agencia de noticiasAmaq, considerada un medio oficial del grupo extremista Estado Islámico, encabezan la clasificación de clics.

Los "tentáculos" del yihadismo

También figuran en la lista enlaces de Twitter (un 40% del tráfico), mensajes de la aplicación Telegram, Facebook y Google (incluido YouTube).

"El ecosistema [de propaganda] yihadista, que se basa en Instagram, expande sus tentáculos en cientos de dominios diferentes. Es robusto y abarca una audiencia de, por lo menos, decenas de miles de personas", explican los analistas, que centraron su investigación en el autodenominado grupo Estado Islámico (EI).

Estado IslámicoDerechos de autor de la imagenGETTY IMAGESImage captionUno de los elementos más usados en internet por grupos como Estado Islámico son los videos.

"Durante al menos este año, la producción de contenido ha continuado, a pesar de la muerte de figuras clave, pérdida de territorio y continuos combates".

"Por ahora, está claro que [los británicos] no estamos ganando la guerra de internet", se lee en el informe de la firma inglesa. "La oleada de ataques terroristas sufridos en la primera mitad de 2017 confirmó que el extremismo online es un peligro real y presente".

En cuanto a Turquía aseguran que entre febrero y mayo de 2017 fue "la localización con más clics" en contenido extremista yihadista. Registraron más de 16.000 clics en poco más de 3 meses.

Respecto a Estados Unidos -el segundo en la lista con 10.300 clics- explican que el hecho de que la mayoría de las grandes plataformas de internet estén basados en ese país supone una "dificultad inmediata".

Línea

ALGUNOS DATOS SOBRE ESTADO ISLÁMICO EN INTERNET

  • El movimiento ha mantenido una presencia continua en los últimos 3 años.
  • Estado Islámico produce unas 100 piezas nuevas cada semana (y a veces muchas más).
  • Los videos son una parte crítica de su contenido para superar barreras lingüísticas y propagar mensajes clave.
  • Hasta la fecha, EI ha producido 2.000 videos "oficiales". Este número asciende a 6.000 si sumamos otros videos yihadistas.
  • Su producción de contenido ha sobrevivido a la muerte de figuras clave, pérdida de territorio y combates.

Fuente: Policy Exchange, "The New Netwar: Countering Extremism Online", 2017.

Línea

Medidas "urgentes"

Los expertos piden más acción por parte de Facebook y otros grandes canales de comunicación y dicen que "en los últimos años, ha habido un reconocimiento creciente del reto que supone la 'radicalización' en internet.

Los gigantes de internet dicen que han hecho esfuerzos para frenar la expansión de este tipo de contenido.

irakDerechos de autor de la imagenGETTY IMAGESImage captionA pesar de la pérdida de territorio, la actividad online de yihadistas ha aumentado.

Google llegó a decir que era "un reto crítico par todos nosotros".

Facebook declaró que está "trabajando enérgicamente" para eliminar la propaganda extremista de su plataforma y ha desarrollado una base de datos de "hashes" (almohadillas o huellas digitales) compartida.

Y Twitter también ha dicho en varias ocasiones que el asunto es prioritario.

Pero los expertos dicen que no se está haciendo lo suficiente.

Línea

¿QUÉ MEDIDAS RECOMIENDAN?

  • Pedirles a las empresas de internet que implementen códigos de conducta para eliminar el extremismo.
  • Aunar esfuerzos con unidades gubernamentales para combatir el terrorismo.
  • Establecer reguladores independientes para contenido en redes sociales.
  • Poner en marcha un sistema de sanciones económicas.

Fuente: Policy Exchange, "The New Netwar: Countering Extremism Online", 2017.

LíneaTwitterDerechos de autor de la imagenGETTY IMAGESImage captionEl 40% de los mensajes se distribuyen a través de Twitter.

"Hay un gran debate internacional sobre la necesidad de que las grandes compañías asuman sus responsabilidades corporativas. Deben aceptar su rol fundamental como distribuidores de facto de contenido online".

"El reciente manifiesto de Mark Zuckerberg (fundador de Facebook) sobre la necesidad de un 'capitalismo responsable' puede servir de punto de partida para preguntarles a las compañías tecnológicas qué están haciendo para asegurar que se comportan de manera 'responsable'".

"No cabe ninguna duda de que el asunto es urgente", añaden.

El informe sugiere la implantación de nuevas leyes para criminalizar la "posesión agravada y/o consumo persistente" de ideología extremista que, al mismo tiempo, no criminalicen a quienes "se tropiecen" por casualidad con este tipo de contenido, de forma similar a como se combate la pornografía infantil.

La ministra de Interior británica, Amber Rudd, le dijo a la BBC que "sabemos que EI supone una amenaza en internet, y este informe ayuda a destacar el alcance del problema".

"Les he dicho alto y claro a los jefes de internet que necesitan ir más lejos y más rápido a la hora de eliminar contenido terrorista de sus sitios web y evitar, en primer lugar, que sea publicado".

Publicado en Internet

Es posible que la expresión "formato de intercambio de gráficos" no signifique mucho para ti, pero ¿y si te hablamos de GIF animados?

Internet está repleto de estos segmentos breves de videos cortos que se repiten en bucle hasta el infinito, casi de forma hipnótica, y que cada vez vemos más en Facebook, Twitter y WhatsApp.

El boom de las redes sociales los ha convertido en una herramienta vital de la era digital por su inmediatez y su naturaleza dinámica y visual.

En 2015, Facebook los incluyó por primera vez en su plataforma. Y a principios de este año WhatsApp agregó un buscador de GIF que no sólo permite usarlos, sino también crearlos.

GIF: Derechos de autor de la imagenGIPHYImage captionEste GIF, llamado "Dancing baby" (bebé bailón), fue creado en los 90 por dos animadores de una empresa de videojuegos y se hizo viral.

Pero hace más de tres décadas que existen... aunque no siempre se usaron con el mismo propósito.

A continuación, te contamos algunas de las curiosidades que más nos llamaron la atención sobre las imágenes más "vivas" de la red.

1. Fueron diseñados en la época de los módem telefónicos

En junio de 1987, Steve Wilhite, un ingeniero y programador de la empresa de comunicaciones estadounidense CompuServe que proporcionaba internet en la era del internet más primitivo, se puso a buscar imágenes que pudieran usar en diferentes plataformas.

Omitir publicación de Twitter número de @CyrisXD

The first GIF ever created. (1987)

“I think the first GIF was a picture of a plane. It was a long time ago.” 
- Steve Wilhite

Final de la publicación de Twitter número de @CyrisXD

Wilhite comenzó a usar los GIF como una forma de presentar imágenes fijas y poder mostrar imágenes a buena resolución pese a que la conexión fuera lenta (como lo era la de esa época).

El primero que creó fue "una foto de un avión", según le contó el propio Wilhite a la publicación tecnológica Daily Dot. En él se veía una aeronave volando con un fondo de nubes.

En ese momento, todavía no existía la World Wide Web. Pero con el paso de los años -y el auge de sitios web como 4chan, Reddit y Tumblr y, posteriormente, de las redes sociales- los GIF se convirtieron en todo un fenómeno de internet.

2. "Sólo" pueden soportar hasta 256 colores

Los GIFs animados solamente permiten usar una paleta de hasta 256 colores (8 bits por píxel).

Pueden parecer muchos, sin embargo, esta poca profundidad de color hace que pierda calidad con respecto a otros formatos de imagen actuales.

Como resultado, los colores quedan difuminados, haciendo quede ligeramente pixelado.

Otros formatos, como el PNG, soportan 24 bits. Y los JPG-JPEG, soportan una paleta de hasta 16 millones de colores.

3. Uno de sus primeros usos fue la publicidad

Si bien es cierto que al principio muchos blogueros y usuarios de foros en internet usaron los GIF como algo decorativo o por puro entretenimiento, pronto comenzaron a adoptar un uso comercial.

GIF de Michelle ObamaDerechos de autor de la imagenGIPHYImage captionLas redes sociales han popularizado el uso de los GIF.

Los GIF animados se usan desde hace tiempo para atraer visitantes en sitios web en forma de banners (anuncios digitales).

Varias plataformas, entre ellas Google, han promovido su uso entre los publicistas a través de campañas CPC (de coste por clic).

Hoy es el rey de internet y se promociona como una opción atractiva y económica para transmitir todo tipo de mensajes, ya sean comerciales o personales.

Su capacidad de ser virales es una de las claves de su éxito.

4. "Time" fue el primer medio en publicar un GIF en portada

La revista estadounidense "Time" fue la primera en incluir un GIF en su portada. Fue un artículo de septiembre de 2014 en el que hablaba sobre cómo la tecnología de Apple "está invadiendo nuestros cuerpos".

En ella mostraba una imagen animada de una muñeca con gráficos y números en movimiento.

Pronto, varios medios internacionales comenzaron a seguir su ejemplo.

5. "Es una g suave, y se pronuncia "yif"

En mayo de 2013, Wilhite dejó claro cómo se pronuncia GIF, pues parece ser que muchos, a su parecer, no lo hacían correctamente.

De acuerdo con el ingeniero, no debe pronunciarse con una "g" fuerte (como en guitarra), sino con una "g" débil.

"Es una 'g' de pronunciación suave: 'yif'. Fin de la historia", dijo al ser consultado por el diario The New York Times.

Un año antes, el Diccionario Oxford la había nombrado "palabra del año".

Publicado en Virtualidad
«InicioAnterior12345678910SiguienteFinal»
Página 1 de 480
 
« Mayo 2017 »
Lun Mar Mier Jue Vie Sáb Dom
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        

 

  



Es una publicación de Cultura, Comunicación y Desarrollo, S.C. Todos los derechos reservados © 2017

Los nombres de los espacios Mediatelecom Minuto a Minuto, Mediatelecom Américas, Sociedad de la Información e Internet y Telecomunicaciones,
Sociedad y Desarrollo son segmentos de Cultura, Comunicación y Desarrollo, S.C que ofrecen un servicio sin fines de
lucro y proporcionan el enlace directo a la fuente original, respetando los derechos de autor del editor y del autor sin alterar o
modificar parcial o totalmente la obra autoral originaria.