Minuto a Minuto

Sin Categoría PREP 2024 – TEST
Your browser doesn’t support iframes Lorem ipsum dolor sit amet, consectetur adipiscing elit. Praesent et enim accumsan, molestie tortor ut, finibus leo. Nunc id diam ut eros viverra porta eget ut lacus. Integer maximus quam erat, at pharetra mi feugiat ac. Vivamus a felis sit amet quam iaculis viverra. Curabitur euismod velit sed sem pharetra … Continued
Deportes Vontae Davis, exjugador de la NFL, murió a los 35 años
El cuerpo de Vontae Davis, exjugador de la NFL, fue encontrado en Southwest Ranches, Florida, detallaron auroridades
Nacional Sheinbaum propone una “simplificación administrativa” para desaparecer al Inai
Sheinbaum dijo que "mayor regulación ha generado ineficiencia", por lo que de llegar a la Presidencia desaparecería instituciones y reglamentos
Nacional Conafor reporta 69 incendios forestales activos en México
Por medio de una tarjeta informativa, la Conafor informó que estos incendios forestales se encuentran en 18 entidades
Nacional Aeropuerto de Mexicali reanuda operaciones, tras el mal clima del fin de semana
El Aeropuerto Internacional de Mexicali, en Baja California, tuvo que ser cerrado el pasado sábado por la tarde debido al mal clima
No es perfecto nuestro sistema de inteligencia artificial: Facebook
Revista TNE

Luego de que hace dos días Facebook afirmó que el video de la masacre en la mezquita de Christchurch, Nueva Zelanda, se vio menos de 200 veces en vivo y 4 mil veces en total antes de ser eliminado de la red social. Este jueves reconoció que su sistema de inteligencia artificial para detectar contenido no permitido “no es perfecto” y que falló a la hora de reconocer el video del atentado que causó 50 muertos en dos mezquitas.

El video de 17 minutos de duración, que mostraba a un hombre armado matando a 49 fieles en dos mezquitas mientras se realizaban las oraciones del viernes, se reportó 12 minutos después de que terminó la transmisión.

Para entonces, un usuario de 8chan ya había puesto el clip en un sitio web para compartir archivos. Después de esto, se volvieron a subir millones de copias del video a Facebook.

Guy Rosen, vicepresidente de gestión de producto de Facebook, reconoció, en una entrada en el blog de la compañía, que aunque la inteligencia artificial logró un “progreso masivo en muchas áreas en los últimos años” que les permite ser “proactivos” en la detección de contenidos, el sistema “no es perfecto”.

“La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos”, apuntó Rosen, quien explicó que fue por eso por lo que en el caso de la retransmisión en directo del atentado, el sistema no funcionó.

“Necesitamos proveer a nuestros sistemas de grandes volúmenes de datos, algo que resulta difícil puesto que, afortunadamente, este tipo de sucesos no son habituales“, indicó el vicepresidente Rosen y afirmó que la inteligencia artificial sí funciona en los casos de desnudez, la propaganda terrorista y la violencia gráfica.

Rosen también apuntó que el “reto” consiste en discernir entre contenidos como el del atentado y otros “visualmente similares, pero inocuos”, como las retransmisiones en directo de partidas de videojuegos de disparos.

Con información de López-Dóriga Digital