[cast]

Hasta hace poco, los ingenieros informáticos consideraban las imágenes como la "materia oscura de Internet". Los programas eran capaces de analizar los colores, la luz, las formas; pero luchaban por descubrir el contenido semántico de las fotografías y las películas. Para un ordenador, una imagen consiste en una serie de números, y traducir estos números en una descripción coherente es un problema difícil. Computer Vision (visión artificial) es el nombre del esfuerzo para traducir las competencias visuales de los humanos a máquinas. Estos últimos cinco años, esta disciplina ha producido resultados impresionantes. Las máquinas están dando cada vez más sentido al contenido visual. En muchos contextos, realizan tareas basadas en un análisis detallado de las imágenes. Ayudan a los médicos a diagnosticar diversas enfermedades, examinan las imágenes interminables de las cámaras de vigilancia, detectan nuevos planetas a partir de imágenes telescópicas. Cuando ayudan a los conductores de automóviles, reconocen a los peatones y evitan los obstáculos. Para lograrlo, las técnicas actuales de computer vision aprenden de los humanos a mirar imágenes. Lo que significa que muchos trabajadores anónimos describen imágenes para las máquinas. Y a partir de estas descripciones, las máquinas producen gradualmente un modelo del mundo. Y no otro. Este trabajo de descripción del mundo visual realizado para las máquinas se llama anotación. Los anotadores pasan sus días señalando cosas en imágenes y nombrándolas. Durante estos dos días de taller, ocuparemos la posición de estos anotadores para mirar las imágenes. Exploraremos lo que podemos aprender de las imágenes cuando las describamos para las máquinas, así como las implicaciones políticas, económicas y estéticas de hacerlo.
Para ello, haremos dos experimentos, uno cada día:

El primero está inspirado en "What do we perceive in a glance of a real-world scene?", un experimento que fue imaginado en 2017 por Fei Fei Li en el laboratorio del California Institute of Technology para establecer una relación entre retina, temporalidad, imagen y palabras que sirve de base para la computer vision. Durante esta sesión veremos las imágenes durante menos de medio segundo y exploraremos lo que podemos ver y decir sobre las imágenes cuando las veamos a la velocidad de la máquina.

El segundo is inspired by "La habitacion china", una situación relacional imaginada por el philosofo John Searle en 1980/4 que interrogó performáticamente la idea de inteligencia artificial, poniendo en tensión el binarismo máquina-humano.Durante esta sesión, aprenderemos a describir imágenes sin verlas, como una máquina.


En estos dos experimentos miraremos imágenes, y estas imágenes provendrán de la base de datos de video de Apología/Antología. Lo que veremos y lo que diremos sobre estas imágenes servirá como punto de partida para verlas de manera diferente y sugerir diferentes (¿quizás inapropiados?) modos de descripción visual.
[eng]

Until recently Computer Scientists were considering the images as the "dark matter of the Internet". Programmes were able to analyse colors, light, shapes, but were struggling to discover the semantic content of photographs and movies. For a computer, an image consists of a series of numbers, and to translate these numbers in a coherent description is a hard problem. Computer Vision is the name of the effort to translate the visual competencies of humans to machines. These last five years, this discipline has produced impressive results. Machines are increasingly making sense of visual content. In many contexts, they perform tasks informed by a fine grained analysis of images. They help doctors to diagnose various illnesses, they scrutinize the never-ending footage of surveillance cameras, they detect new planets from telescope imagery. When they assist car drivers, they recognize pedestrians and avoid obstacles. To achieve this, the current techniques of Computer Vision learn from humans how to look at images. Which means that lots of anonymous workers describe images for machines. And from these descriptions, the machines gradually produce a model of the world. And not another. This work of description of the visual world made for the machines is called annotation. The annotators spend their days pointing things in images and naming them. During these two days of workshops, we will occupy the position of these annotators to look freshly at images. We will explore what we can learn from images when we describe them for machines, as well as the political, economic and aesthetic implications of doing so.
To do this, we will make two experiments, one each day:

First one is inspired by "What do we perceive in a glance of a real-world scene?" Ese experimento fue imaginado en 2017 por Fei Fei Li en el laboratorio del California Institute of Technology para establecer una relacion entre retina, temporalidad, imagen y palabras que sirve de base para la visión por ordenador. During this session we will look at images during less than half a second and explore what we can see and say about images when we look at them at machine speed.

Second is inspired by "La habitacion china", una situación relacional imaginada por el philosofo John Searle en 1980/4 que interrogó performáticamente la idea de inteligencia artificial, poniendo en tensión el binarismo máquina-humano. During this session, we will learn to describe images without seeing them, just like a machine.


During these two experiments, we will look at images, and these images will come from the video database of Apología/Antología. What we will see and what we will say about these images will serve as a starting point to see them differently and suggest different (perhaps inappropriate/d?) modes of description for them.
Las promesas de los algos: una visión inapropiada/ble