Indignos casi de la vida, de la vida inmediata, nos presentamos hoy con técnicas,

razones técnicas también, análisis igualmente técnicos del alma reducida a psique, a máquina…

María Zambrano, Los bienaventurados

 

Hace poco, una académica publicó en una red social un estado en el que narra que, después de preguntarle a su hermana sobre un libro en un mensaje privado, Kindle le sugirió adquirir ese mismo título. Esta persona terminó su publicación cuestionando la privacidad en la red.

Entre las respuestas que recibió su publicación se encuentra una que señala que probablemente los académicos son los únicos que no se han dado cuenta de que el tiempo de la privacidad ya pasó, y otra, en la que se menciona que las sugerencias coinciden con algún tema del que se ha hablado, aunque no haya sido buscado o escrito en la red.

Son varias las reflexiones que pueden desprenderse de esta anécdota. Por ejemplo, respecto a la privacidad en la red y la recolección pasiva y activa de los datos de los usuarios que hace la tecnología contemporánea, nos cuestionamos ¿qué significa la privacidad ahora?, ¿puede ser juzgada con los mismos criterios de separación entre lo público y lo privado que formaron parte de la sociedad  de los siglos xix y xx? O bien, lo hacemos sobre el hecho de que parece, efectivamente, que algunos académicos son los últimos en darse cuenta del efecto de los cambios culturales y tecnológicos en la vida cotidiana y en su propia profesión (¿es condición de la academia replicar al ángel de Walter Benjamin, que mantiene la mirada en un pasado convertido en ruinas?).

Sin embargo, el tema en esta ocasión no es la privacidad ni la academia, sino el diseño. Trataré de explicar cómo un producto de diseño industrial puede hacer una sugerencia particular, personalizada, relevante para el usuario, reflexionando al mismo tiempo sobre conceptos con los que se ha dado fundamento al diseño, y en particular al diseño industrial, en los últimos cien años.

Las incógnitas son múltiples: ¿cuál es la función1 de un objeto que, por definición, puede realizar cualquier función?, ¿es el artefacto2 un agente activo en diferentes sistemas o redes de agentes de los que forma parte?, ¿esta agencia3 implica una intencionalidad propia del artefacto?, ¿es el big data un componente indispensable para la óptima experiencia del usuario?, ¿la interacción y la experiencia del usuario reemplazan la función como factor fundamental del diseño? y, en este escenario, ¿es la intencionalidad del diseñador la determinante ontológica del artefacto?

Lo relatado por la anécdota es el caso de un usuario de un artefacto, Kindle, que recibe por parte del objeto una sugerencia para adquirir un libro sobre el cual el usuario ha mostrado interés en una conversación privada. Kindle es un lector de publicaciones electrónicas diseñado por la empresa Amazon en 2007, que permite hojear, comprar, descargar, leer y almacenar libros, periódicos, revistas y otros medios digitales. En sus primeras versiones incluía un teclado que posteriormente fue sustituido por una pantalla sensible al tacto, lo que colocó a Kindle en la familia de las tablets. Este artefacto ha causado controversia al considerarse una amenaza para el libro como objeto físico y por la posible sustitución de éste por un objeto digital, el e-book.

A su vez, Kindle ha dado lugar a fenómenos culturales como la Generación Kindle: un conjunto de autores que recurre al Kindle Direct Publishing (kdp) para editar y publicar sus obras, algunas de los cuales han llegado a ser considerados promesas de la literatura. En sus versiones más recientes, es un artefacto de software que puede usarse en diferentes dispositivos, como computadoras, otras tablets y teléfonos inteligentes. La evolución de Kindle muestra, como otros casos, que el producto de diseño industrial no se reduce a un objeto físico.

Por otro lado, Kindle, al igual que los teléfonos inteligentes, tablets y computadoras, forma parte de la categoría técnica4 de máquina interactiva, una forma extendida de la Máquina Universal de Turing, llama- da así a partir de una descripción que realizó el matemático británico Alan Turing en un artículo de 1936. En una definición no muy estricta, la Máquina Universal de Turing es universal por su capacidad para sustituir a otra máquina u objeto. Así, podríamos decir que el instrumento característico del inicio del siglo xxi es el artefacto portátil, que lo mismo funciona como despertador, block de notas, calendario, agenda, aparato de sonido, sistema de mensajería, correo, periódico, libro, mapa, cámara fotográfica, cámara de video, calculadora, grabadora, terminal bancaria, teléfono o casi lo que sea. La Máquina Universal de Turing puede sustituir a otra máquina siempre y cuando se tenga una especificación adecuada en forma de algoritmo. La sustitución no es esencialmente física, en términos de su estructura material, sino funcional: la Máquina Universal realiza las funciones características del objeto sustituido.

Ahora bien, un objeto que puede realizar cualquier función, ¿tiene una en particular? Si la respuesta es afirmativa, ¿cuál es? Si la función de un artefacto responde a una necesidad, ¿a cuál responde el objeto que puede, en teoría, tener todas las funciones? Y, si la función es el factor determinante del diseño, ¿qué se diseña?

La mayoría de los ejemplos mencionados anteriormente se refieren en realidad a máquinas interactivas, un concepto más amplio que el de máquina algorítmica (como la Máquina Universal de Turing): un algoritmo no tiene noción de su entorno y no es adaptable mientras se ejecuta. En cambio, a un sistema interactivo le atañen tópicos inabordables para el algoritmo: reacciona frente a su entorno y puede modificarlo, por lo que adquiere capacidad de agencia; además del conjunto de acciones que puede realizar, tiene políticas sobre su ejecución o estrategias para alcanzar metas, y sus procesos internos pueden ser interrumpidos o modificados.5 No es un instrumento aislado, sino que busca estar permanentemente conectado, interactuando con otros objetos, de forma que colabora en varias funciones gracias a esa conexión: la aplicación que muestra un mapa dinámico y sugiere rutas para llegar a cierto destino a partir de la información actualizada del tránsito funciona gracias a la convergencia de múltiples agentes humanos y no humanos, de hardware y de software. La función es emergente y requiere información que también es emergente y no se encuentra en los componentes del sistema ni puede ser predefinida en sus comportamientos.6 Dado que la función emerge de la interacción, no es una propiedad del artefacto, como sugiere el concepto función propia.7

La anécdota con la que comenzó este texto es resultado de que una de las funciones emergentes en las que participa Kindle consiste en hacer sugerencias o recomendaciones de lecturas personalizadas al usuario, conforme al paradigma que considera la experiencia de usuario como factor fundamental del diseño industrial,8 al integrar aspectos como el estado de flujo, la personalización, el vínculo con el artefacto y la permanencia de uso. Por otro lado, esta capacidad de sugerir le permite a la empresa Amazon aumentar sus ventas y asegura fidelidad con la marca. Esta recomendación se realiza mediante sistemas de aprendizaje profundo (deep learning), un tipo de máquina de aprendizaje (machine learning) basado en redes neuronales.

Se trata de un paradigma9 actual en inteligencia artificial, vinculado a la teoría de sistemas complejos, que cada día se emplea para nuevas tareas, como identificación de objetos o personas en imágenes, reconocimiento de voz, traducción, diagnóstico y recomendaciones de salud, lectura de labios, sugerencias de regalos para familiares y amistades, automóviles autónomos, etcétera. Sin embargo, aunque estas aplicaciones son nuevas, este paradigma tiene una larga historia, desde la cibernética de los años cuarenta a los sesenta y el conexionismo en los ochenta y noventa; sólo a partir de 2006 se empezó a conocer con el nombre de aprendizaje profundo, cuando Geoffrey Hinton demostró una forma eficiente de entrenamiento para cierto tipo de redes neuronales con múltiples capas.10

Walter Schneider revisó algunas de las características del cambio de paradigma señaladas por Kuhn en relación con la emergencia del conexionismo: la insatisfacción con el marco establecido, en este caso con el modelo de caja procesadora de información; la atención que se pone en anomalías que no encajan en la visión tradicional, como las habilidades de aprendizaje sin instrucción y la capacidad de ejecutar tareas sin especificar sus reglas de realización; durante el cambio de paradigma se reduce la comunicación entre las partes, en este caso el conexionismo introdujo un nuevo vocabulario no contemplado en el modelo tradicional (vectores, pesos, gradientes, atractores), y el surgimiento de nuevas reglas de evidencia (nuevos modelos matemáticos de simulación del aprendizaje).

La guerra de paradigmas entre el cognitivismo clásico y el aprendizaje profundo ha tenido diferentes etapas desde los años cuarenta del siglo xx. Ya en la época inicial de las ciencias cognitivas, representada por las conferencias de Macy, se cuestionaba la idea de la computación simbólica. “En 1949, Donald Hebb sugirió que el aprendizaje se podía basar en cambios cerebrales que surgen del grado de actividad correlacionada entre las neuronas: si dos neuronas tienden a actuar en conjunto, su conexión se refuerza; de lo contrario, disminuye”.11

A finales de los años cincuenta se propuso el perceptron, una red neuronal básica sin capas ocultas, como un mecanismo que podría lograr un aprendizaje. En 1969, Minsky y Papert escribieron una severa crítica que calificaba como estéril el trabajo de investigación en perceptrones, lo cual frenó este programa durante más de una década.12 En 1982, J. J. Hopfield propuso un modelo de “memoria asociativa” compuesto por una gran cantidad de neuronas interconectadas. Cada neurona tiene únicamente un par de estados y puede cambiar de uno a otro de acuerdo con la suma de señales que recibe de sus sinapsis.13 Ya para 1986 se habían dado respuestas sólidas a la crítica de Minsky y Papert, sin que por ello concluyera el combate entre paradigmas.14

Schneider define al conexionismo como un método de modelado de la cognición a partir de unidades tipo neurona, que se conectan para crear redes neuronales, con atributos característicos: el procesamiento sucede en poblaciones o conjuntos de elementos simples; el conocimiento se almacena en el peso de las conexiones entre los elementos, esto es, en la fuerza de las asociaciones entre elementos neuronales; estas unidades llevan a cabo transformaciones no lineales de la combinación de sus inputs, y el aprendizaje ocurre a partir de reglas simples basadas en la información local disponible para cada unidad. En otras palabras, el aprendizaje implica la modificación de las conexiones para evocar un nuevo output a partir de un input posterior.

 

En este enfoque:

[…] dada la constitución de la red del sistema, hay una cooperación global que emerge espontáneamente cuando todas las “neuronas” participantes alcanzan un estado mutuamente satisfactorio. En tal sistema, pues, no se requiere una unidad procesadora central que guíe la operación. Este tránsito de las reglas locales a la coherencia global es el corazón de lo que en los años cibernéticos se denominaba autoorganización. Hoy la gente prefiere hablar de propiedades emergentes o globales, dinámica de red, redes no lineales, sistemas complejos o aun de sinergia.15

 

 

Las redes neuronales tienen la capacidad de aprender del data. En lugar de programarse con los pasos detallados necesarios para realizar su tarea, la red se entrena para reconocer patrones o pautas (patterns). Aprendizaje significa, en este contexto, que cuando el sistema realiza una tarea, sus resultados pueden mejorar a partir de la experiencia. Por experiencia se considera una gran cantidad de datos con un resultado conocido, por ejemplo miles o millones de imágenes “etiquetadas” de acuerdo con su contenido. Se presentan estas imágenes al sistema de forma sucesiva, comparando su resultado en cada una con la etiqueta correspondiente y se ajusta en cada caso para aproximar su respuesta a la información conocida. Éste es el proceso de entrenamiento. Lo importante es que el sistema realice la tarea de forma adecuada cuando se le presenta un caso nuevo, no conocido, durante el entrenamiento: cuando reconoce el contenido de una imagen nueva. La capacidad de responder de forma apropiada en un caso nuevo se conoce como generalización.16

Actualmente, las redes neuronales tienen mayor cantidad de capas que las empleadas en los noventa; por ejemplo, la red neuronal que emplea Facebook para reconocimiento de rostros, la cual identifica y sugiere etiquetar a nuestras amistades cuando publicamos una fotografía, tiene 19 capas. La red equivalente de Google, que le permite al sistema saber el contenido de una imagen para su búsqueda, tiene 24 capas. A eso se refiere el término profundo en la expresión “aprendizaje profundo”: la cantidad de capas de la red, con la idea de que redes más grandes sean capaces de alcanzar mayor precisión en las tareas propuestas. Otro factor importante se relaciona con el aprendizaje de la red neuronal: se necesita una cantidad enorme de ejemplos durante el entrenamiento. De acuerdo con Goodfellow y otros autores, una red neuronal con aprendizaje supervisado adquirirá un desempeño aceptable con alrededor de 5 000 ejemplos por categoría y tendrá resultados similares o superiores a un ser humano cuando se entrene con al menos 10 millones de casos.17 De ahí la importancia del big data: se requiere contar con enormes cantidades de datos clasificados, por ello la necesidad de los sistemas de aprendizaje de recolectar toda la información posible sobre las acciones de los usuarios.

En 2015, un equipo de investigadores de Google presentó un proyecto llamado Inception, basado en un fenómeno descubierto al tratar de averiguar qué ocurre en las capas ocultas de una red neuronal, en particular en una red entrenada para reconocimiento de imágenes. La red de código abierto fue entrenada con ImageNet, un conjunto de imágenes del Stanford Vision Lab, de la Universidad de Stanford, organizadas jerárquicamente de acuerdo con WordNet, una base de datos lexicográfica del inglés creada por la Universidad de Princeton, en la que sustantivos, verbos, adjetivos y adverbios se agrupan en conjuntos de sinónimos llamados synsets. ImageNet provee las imágenes para ilustrar cada synset y en la actualidad cuenta con más de 14 millones de imágenes para cerca de 22 000 synsets. El entrenamiento le permitía a la red neuronal reconocer objetos de mil diferentes categorías, incluidas 118 razas de perros. Se alteró una función de la red para que la información de alguna capa oculta se tomara como imagen inicial y lo que encontraron fueron imágenes oníricas generadas por la red neuronal. Algo que llamó la atención en algunas de las pruebas realizadas es que los objetos que aparecen en las imágenes de la red neuronal dependen de su entrenamiento: si una red se entrena para reconocer hormigas, entonces encontrará hormigas en todos lados. Los resultados se modifican de acuerdo con el data inicial con el que la red aprende, de ahí la importancia de qué tipo de data se emplee; en este caso, la red encontró torres o pagodas en el horizonte y convirtió los árboles en edificios y las hojas en aves.

 

Inception. Google Inc., con licencia de Creative Commons Attribution 4.0.

Qué información es pertinente para un artefacto en particular dependerá de qué aplicación se le quiera dar; por ejemplo, un reloj o app para correr selecciona y recolecta datos múltiples, como la ubicación con gps, acelerómetro, temperatura, presión atmosférica, humedad, altimetría, frecuencia cardiaca, peso, estatura, edad, ruta de la carrera, ritmo y velocidad. Además, puede hacer recomendaciones sobre el entrenamiento físico, además de publicar en las redes sociales e interactuar con otras aplicaciones que, con datos adicionales, como niveles de glucosa, hidratación, presión arterial o antecedentes médicos, pueden estar en contacto con un especialista o hacer recomendaciones sobre la salud. Una lista de lecturas o búsquedas en la red le permite a Kindle realizar sugerencias de nuevas lecturas. La edad, la historia personal, la ubicación, todo puede ser valioso para el agente digital: el data nos rodea y nos acompaña permanentemente, y cada una de nuestras acciones puede ser fuente de nuevos datos, además de los que sea posible recolectar de nuestra casa, automóvil, electrodomésticos, transporte público, calles y espacios de las smart cities, etcétera. Cualquier cosa puede ser un dato de acuerdo con su propósito y su contexto, por lo que cada uno de ellos tiene cierta intencionalidad y modifica, a su vez, la función del artefacto.

Probablemente sea cierto que el tiempo de la privacidad ya pasó y que ahora vivimos en una era de posprivacidad, la cual, entre otras cosas, transforma la relación entre el ser humano y los artefactos: una cámara fotográfica sabrá no sólo dónde y cuándo fue tomada cada fotografía, sino quiénes aparecen en ella cuando se trate de personas, o qué objetos, edificios, animales o plantas fueron fotografiados, y a partir de ahí podría clasificar las imágenes por su contenido, facilitar su búsqueda o hacer sugerencias sobre alguna exposición artística o lugares para visitar, por ejemplo. Incluso podría utilizar un tipo de interacción conversacional: “He visto que te llaman la atención las cactáceas y el jardín botánico tiene una buena colección, ¿quieres programar una visita?… de acuerdo, el sábado en la mañana… si te parece bien te puedo sugerir la ruta más adecuada en el mapa… Y también encontré estas lecturas, por si te interesa tener más información”.

De forma paralela a los cambios de paradigma en las ciencias cognitivas y al avance tecnológico, han emergido nuevos paradigmas en el diseño. Del centrado en el objeto, en el que son fundamentales factores como la configuración física, la función y la producción, se ha pasado a uno enfocado en el usuario, en el que se presta especial atención a la interacción y la experiencia. El tema de interacción históricamente ha transitado de concentrarse en las interfaces gráficas y la pantalla a una interacción conversacional con comandos de voz y la interacción en movimiento, que puede involucrar todo el cuerpo.18 Desde los años noventa, Negroponte sugería: “Si el frigorífico nota que nos hace falta leche, puede ‘pedir’ al coche que nos recuerde comprarla en el camino de vuelta a casa”.19 Por su parte, Barfield cuestionaba el tipo de interacción artefactual, comparándola con un mayordomo inepto que es incapaz de preparar y servir el té por sí mismo, al que hay que decirle qué, cuándo y cómo hacerlo, y que requiere intervención y supervisión del usuario en cada paso. En su lugar, una forma de interacción en la que el artefacto sea como un mayordomo competente que no requiere órdenes o instrucciones, porque sabe qué hacer y cómo hacerlo, conoce las preferencias del usuario, es capaz de anticipar y se adapta a las circunstancias.20

Regresando nuevamente a la anécdota inicial, el segundo comentario dice: “Jajaja. Peor aún… me ha pasado que sin escribir ni buscar… estar hablando de algún tema… y después verlo en las propuestas… that’s creepy! “.

Aunado al dilema de privacidad que implica ser constantemente vigilados por los mayordomos o agentes digitales que siguen nuestros pasos y están al tanto de cada una de nuestras actividades, para algunos puede ser atemorizante o poco placentero saber que somos predecibles, que las recomendaciones que nos hacen son justamente las que queremos en ese momento, porque tal vez no somos tan originales y sí muy rutinarios: la inquietud del alma reducida a máquina.

Por último, parece que este esfuerzo por complacer al usuario u optimizar su experiencia incrementa el sesgo cognitivo y refuerza sus prejuicios al ampliar sus creencias y hábitos, creando una burbuja de la que es difícil percatarse. Cuando empecé a escribir este texto, leí un par de documentos recientes en la red sobre aprendizaje profundo y en el transcurso de los siguientes días empecé a recibir más recomendaciones de lecturas sobre el mismo tema, en un ciclo de retroalimentación en el que, mientras más leía del tema, mayor número de artículos aparecían. Éste es uno de los rasgos de la cultura misma: el ser humano crea prácticas, hábitos, y se enfoca en su círculo familiar, de amistades o su comunidad a partir de creencias afines, de modos similares de ver el mundo, y vive en una burbuja que difícilmente advierte. Quizás éste sea uno de los factores que influyen en la tardanza de algunos académicos en percatarse del efecto de los cambios culturales y tecnológicos: están fuera de su burbuja. ¿Podrían estos sistemas brindarnos un encuentro enriquecedor con la otredad, con lo diferente?

De la misma forma, hay que reconocer que en su estado actual esta tecnología es incapaz de discernir entre información valiosa e información basura, por lo que indistintamente bombardea al usuario con una y otra. Como en el cuestionamiento anterior, éste no es un rasgo exclusivo de los agentes digitales, aunque puede verse amplificado por sus formas de aplicación. El valor de estas críticas se incrementa cuando se comprende que, en el fondo, están dirigidas al propio ser humano.

En su vigesimonovena asamblea general, realizada en Corea del Sur en 2015, el International Council of Societies of Industrial Design (icsid) renovó la definición de diseño industrial como un proceso estratégico de solución de problemas por medio de la innovación en productos, sistemas, servicios y experiencias. Por su parte, la revista Fast Company publicó en septiembre de 2016 una entrevista a una docena de diseñadores de empresas, universidades y firmas de diseño –como Frog, Artefact, Ideo y 4B Collective–, sobre la prospectiva del diseño, en la que destacan temas como la expansión del diseño del objeto a la experiencia y de ahí al comportamiento de sistemas (diseñar es determinar el comportamiento de sistemas inteligentes), así como la importancia de considerar la interconexión de todos los artefactos para crear experiencias relacionadas.

De esta forma se hace manifiesto que la intencionalidad del diseñador no es la determinante ontológica del artefacto: la función misma emerge en la interacción, por lo cual no se encuentra presente en los componentes ni puede ser predefinida. Hasta ahora, la idea dominante en la filosofía de la técnica y en la teoría de diseño ha sido que la función propia, que determina la categoría técnica del artefacto, corresponde a la intencionalidad del diseñador.21 Por su parte, Don Ihde denomina como falacia del diseñador (designer fallacy) esta idea, de forma análoga a lo que en semiótica y teoría literaria se ha llamado falacia intencional o falacia del autor, y presenta múltiples ejemplos históricos en los que la función del artefacto no corresponde con la función definida por el diseñador.22 La convergencia de múltiples agentes humanos y artefactuales, que se adaptan y modifican su comportamiento, opaca la noción de función y coloca en el centro del diseño la experiencia del usuario y la actividad de los agentes en el transcurso de la interacción.

Notas

1 Utilizo los términos función y funcionalismo en el sentido que se les da dentro del discurso de diseño y en la filosofía de la técnica, por ejemplo en la frase “la forma sigue a la función”. En otras disciplinas, como inteligencia artificial y teoría de la computación, pueden adquirir significados diferentes. 

2 Por artefacto me refiero al producto de diseño: un objeto artificial realizado con una finalidad pragmática, generalmente asociada a su función. Éste es el término normalmente empleado en filosofía de la técnica y antropología, por lo que lo utilizaré en lugar de expresiones como “objeto diseñado” u “objeto-producto”. Los artefactos no son únicamente objetos materiales, también pueden ser productos informáticos o sistemas. 

3 Considero como agente a una entidad con la capacidad de actuar y como agencia a la capacidad misma y su uso. El término está relacionado con la noción de acción intencional de un ente autónomo, por lo que hasta hace poco, en el pensamiento occidental, sólo se le reconocía agencia al ser humano. 

4 Con la expresión “categoría técnica” me refiero a lo que diversos autores en filosofía de la técnica denominan technical kind. Por ejemplo, Kroes utiliza esta noción para explicar el caso de artefactos que, perteneciendo a la categoría técnica adecuada, no pueden realizar su función en un momento determinado (una televisión descompuesta aún es una televisión), así como para excluir aquellos artefactos que se emplean para cierta función, pero que no por eso pertenecen a la categoría técnica correspondiente: el caso de la moneda que se usa para desatornillar o la silla que sirve como escalera para alcanzar algo en la parte alta del librero. Para Kroes, la categoría técnica se relaciona con la definición ontológica del artefacto. Véase Peter Kroes, Technical artifacts: Creations of mind and matter: A philosophy of engineering design (Netherlands: Springer, 2012), 34. 

5 Véase Peter Wegner, “Why Interaction is More Powerful than Algorithms”, Communications of the ACM 40 (1997). Del mismo autor, “Interactive Foundations of Computing”, Theoretical Computer Science 192 (1998). También, Carolyn L. Talcott, “A Formal Framework for Interactive Agents”, Electronic Notes in Theoretical Computer Science 203 (2008). 

6 Carlos Gershenson, “The Implications of Interactions for Science and Philosophy”, Foundations of Science 18 (2013). 

7 De acuerdo con Kroes y otros autores de filosofía de la técnica, la función propia (proper function) determina a qué categoría técnica pertenece el artefacto. La función no es sólo resultado de las capacidades físicas del artefacto, ya que las mismas pueden ser aprovechadas para diferentes propósitos, como la vivienda que se usa como bodega; sin embargo, sólo una de esas actividades corresponde con la función propia del artefacto y es la que establece su pertenencia a una categoría técnica, en contraste con las funciones accidentales que no tendrían determinación ontológica. Véase Peter Kroes, Technical artifacts… 

8 Véase Alan Findeli y Rabah Bousbaci, “L’éclipse de l’objet dans les théories du projet en design”, The Design Journal 8 (2005). También Johan Redström, “Towards user design? On the shift from object to user as the subject of design”, Design Studies 27 (2006).

9 El término paradigma se utiliza aquí en el sentido kuhniano, en referencia a las teorías clave, prácticas, instrumentos, valores y convenciones metafísicas compartidos por quienes trabajan en un programa de investigación determinado. Véase Thomas Kuhn, La estructura de las revoluciones científicas (México: Fondo de Cultura Económica, 1993). 

10 Ian Goodfellow, Yoshua Bengio y Aaron Courville, Deep Learning (Cambridge: The mit Press, 2017). 

11 Francisco J. Varela, Conocer. Las ciencias cognitivas: tendencias y perspectivas. Cartografía de las ideas actuales (Barcelona: Gedisa, 1998), 44-46. 

12 Walter Schneider, “Connectionism: Is it a paradigm shift for psychology?”, Behavior Research Methods, Instruments & Computers 19 (2006). 

13 Roberto Perazzo, De cerebros, mentes y máquinas (Argentina: Fondo de Cultura Económica, 1994). 

14 Schneider, “Connectionism”…. 

15 Francisco J. Varela, Conocer. Las ciencias cognitivas…, 61.  

16 Ian Goodfellow, Yoshua Bengio y Aaron Courville, Deep Learning (Cambridge: The mit Press, 2017). 

17 Ian Goodfellow, Yoshua Bengio y Aaron Courville. Deep Learning… 

18 Ricardo Cruz Mendoza, Nadia Bianchi-Berthouze, Pablo Romero y Gustavo Casillas Lavín, “A classification of user experience frameworks for movement-based interaction design”, The Design Journal: An International Journal for All Aspects of Design 18 (2015). 

19 Nicholas Negroponte, El mundo digital (Barcelona: Ediciones B, 1995), 120. 

20 Lon Barfield, The User Interface. Concepts & Design (Beccles: Addison-Wesley, 1993).  

21 Kroes, Technical artifacts… 

22 Pieter E. Vermaas, Peter Kroes, Andrew Light y Steven.A. Moore, Philosophy and Design from Engineering to Architecture. Philosophy and Design (Springer, 2008).  


Referencias

Barfield, Lon. The User Interface. Concepts & Design. Beccles: Addison-Wesley, 1993.

Cruz Mendoza, Ricardo, Nadia Bianchi-Berthouze, Pablo Romero y Gustavo Casillas Lavín. “A classification of user experience frameworks for movement-based interaction design”, The Design Journal: An International Journal for All Aspects of Design 18 (2015): 393-420. Disponible en: http://doi.or g/10.1080/14606925.2015.1059606.

Findeli, Alan, y Rabah Bousbaci. “L’éclipse de l’objet dans les théories du projet en design”, The Design Journal 8 (2005): 35-49.

Gershenson, Carlos. “The Implications of Interactions for Science and Philosophy”, Foundations of Science 18 (2013): 781-790. Disponible en: http:// doi.org/10.1007/s10699-012-9305-8.

Goodfellow, Ian, Yoshua Bengio y Aaron Courville. Deep Learning. Cambridge: The mit Press, 2017. Disponible en: http://www.deeplearningbook.org.

Kroes, Peter. Technical artifacts: Creations of mind and matter: A philosophy of engineering design. Netherlands: Springer, 2012.

Kuhn, Thomas. La estructura de las revoluciones científicas. México: Fondo de Cultura Económica, 1993.

Negroponte, Nicholas. El mundo digital. Barcelona: Ediciones B, 1995.

Perazzo, Roberto. De cerebros, mentes y máquinas. Argentina: Fondo de Cultura Económica, 1994.

Redström, Johan. “Towards user design? On the shift from object to user as the subject of design”, Design Studies 27 (2006): 123-139. Disponible en: http://doi.org/10.1016/j.destud.2005.06.001.

Schneider, Walter. “Connectionism: Is it a paradigm shift for psychology?”, Behavior Research Methods, Instruments & Computers 19 (2006): 73-83.

Talcott, Carolyn L. “A Formal Framework for Interactive Agents”, Electronic Notes in Theoretical Computer Science 203 (2008): 95-106. Disponible en: http://doi.org/10.1016/j.entcs.2008.04.088.

Turing, Alan M. “On computable numbers with an application to the Entscheidungsproblem”, Proceedings of the London Math Society 2 (1936): 230-265. Disponible en http://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf.

Varela, Francisco J., Evan Thompson y Eleanor Rosch. De cuerpo presente. Las ciencias cognitivas y la experiencia humana. Barcelona: Gedisa, 1997.

Varela, Francisco J. Conocer. Las ciencias cognitivas: tendencias y perspectivas. Cartografía de las ideas actuales. Barcelona: Gedisa, 1998.

Vermaas, Pieter E., Peter Kroes, Andrew Light y Steven.A. Moore. Philosophy and Design from Engineering to Architecture. Philosophy and Design. Springer, 2008. Disponible en: http://doi.org/10.1007/978-1-4020-6591-0.

_____. “Why Interaction is More Powerful than Algorithms”, Communications of the ACM 40 (1997): 80-91. Disponible en: http://doiorg/ 10.1145/253769.253801.

Wegner, Peter. “Interactive Foundations of Computing”, Theoretical Computer Science 192:2 (1998): 315-351. Disponible en: http://doi.org/10.1016/ S0304-3975(97)00154-0.

Zambrano, María. Los bienaventurados. Madrid: Siruela, 2004.


Sitios web

International Council of Societies of Industrial Design, icsid. Definition of Industrial Design. Consultado Diciembre, 2016. http://www.icsid.org/about/definition. 

Brownlee, John. “5 Design Jobs That Won’t Exist In The Future”, Fast Company. Publicado Septiembre 1, 2016. https://www.fastcodesign.com/3063318/5- design-jobs-that-wont-exist-in-the-future. 

Van Veen, Fjodor. “The Neural Network Zoo”. The Asimov Institute. Publicado Septiembre 14, 2016. http://www.asimovinstitute.org/neural-network-zoo.

 

TensorFlow. Consultado Diciembre, 2016. https://www.tensorflow.org. 

Stanford Vision Lab, Stanford University, Princeton University. ImageNet. Consultado Diciembre, 2016. http://image-net.org. 

Princeton University. WordNet. Última modificación Marzo, 15, 2015. http:// wordnet.princeton.edu. 

Mordvintsev, Alexander, Christopher Olah y Mike Tyka. “Inceptionims: Going Deeper into Neural Networks”. Google Research Blog. Publicado Junio 17, 2015. https:// research.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html. 

Vanhoucke, Vincent. “Speech Recognition and Deep Learning”. Google Research Blog. Publicado Agosto 6, 2012. https://research.googleblog.com/2012/08/ speech-recognition-and-deep-learning.html. 

V. Le, Quoc, y Mike Schuster. “A Neural Network for Machine Translation, at Production Scale”. Google Research Blog. Publicado Septiembre 27, 2016.https:// research.googleblog.com/2016/09/a-neural-network-for-machine.html.

​Gustavo Casillas Lavín​
Centro de Investigaciones de Diseño Industrial
Facultad de Arquitectura, UNAM

Descargar PDF

DOI: http://dx.doi.org/10.22201/fa.2007252Xp.2017.15.60393