Minuto a Minuto

Nacional Políticos, lo que quiere Trump
          El punto será el posicionamiento, hoy, de la presidenta de la República, en medio de la peor crisis que le estallaron en lo que va de su gobierno
Economía y Finanzas Citi anuncia el cierra de la venta del 22.6% de su participación accionaria en Banamex
Citi confirmó que, tras este proceso acelerado, no anticipa ventas adicionales durante el resto de 2026
Economía y Finanzas México pierde atractivo por los trámites que frenan la inversión, advierten especialistas
Un estudio reveló que el costo promedio que pierden las empresas por tiempos de espera de trámites asciende a 22.09 millones de pesos
Ciencia y Tecnología Nuevo satélite de la NASA revela en tiempo real el hundimiento de la Ciudad de México
El satélite NISAR de la NASA muestra que algunas zonas de la Ciudad de México se hundieron más de 2 centímetros por mes a finales del 2025
Nacional Manuel Albares subraya la “total normalidad” entre España y México tras reunirse con Sheinbaum
"Lo que hemos hecho es mirar hacia el futuro, esa gran etapa en las relaciones bilaterales", dijo Manuel Albares
No es perfecto nuestro sistema de inteligencia artificial: Facebook
Revista TNE

Luego de que hace dos días Facebook afirmó que el video de la masacre en la mezquita de Christchurch, Nueva Zelanda, se vio menos de 200 veces en vivo y 4 mil veces en total antes de ser eliminado de la red social. Este jueves reconoció que su sistema de inteligencia artificial para detectar contenido no permitido “no es perfecto” y que falló a la hora de reconocer el video del atentado que causó 50 muertos en dos mezquitas.

El video de 17 minutos de duración, que mostraba a un hombre armado matando a 49 fieles en dos mezquitas mientras se realizaban las oraciones del viernes, se reportó 12 minutos después de que terminó la transmisión.

Para entonces, un usuario de 8chan ya había puesto el clip en un sitio web para compartir archivos. Después de esto, se volvieron a subir millones de copias del video a Facebook.

Guy Rosen, vicepresidente de gestión de producto de Facebook, reconoció, en una entrada en el blog de la compañía, que aunque la inteligencia artificial logró un “progreso masivo en muchas áreas en los últimos años” que les permite ser “proactivos” en la detección de contenidos, el sistema “no es perfecto”.

“La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos”, apuntó Rosen, quien explicó que fue por eso por lo que en el caso de la retransmisión en directo del atentado, el sistema no funcionó.

“Necesitamos proveer a nuestros sistemas de grandes volúmenes de datos, algo que resulta difícil puesto que, afortunadamente, este tipo de sucesos no son habituales“, indicó el vicepresidente Rosen y afirmó que la inteligencia artificial sí funciona en los casos de desnudez, la propaganda terrorista y la violencia gráfica.

Rosen también apuntó que el “reto” consiste en discernir entre contenidos como el del atentado y otros “visualmente similares, pero inocuos”, como las retransmisiones en directo de partidas de videojuegos de disparos.

Con información de López-Dóriga Digital