Mesa Temática No. 23

BIG DATA Y TECNOLOGÍAS DE LA INFORMACIÓN EN PERSPECTIVA ÉTICA (6-1/2 JORNADA)

Primera sesión (1 hora y 30 minutos*):

Presenta y modera: Jon Rueda Etxebarria

Cristian Osal López: Big Data. ¿Cómo discernir qué es correcto hacer y qué no?

Miguel Moreno Muñoz: Por qué las políticas de privacidad de Facebook no evitaron el abuso de Cambridge Anaytica

Aníbal Monasterio Astobiza: Neo-frenología digital y sus implicaciones éticas


Segunda sesión (1 hora y 30 minutos*):

Presenta y modera: Cristian Osal López

Patrici Calvo: Sobre odradeks, obsolescencia y cosificación. Implicaciones éticas del Internet de las Cosas (IoT)

Jon Rueda Etxebarria: Privacidad, panóptico digital y nuevas formas de vigilancia

Manuel Cebral: Ámbitos de transvaloración tecnológica a través de la filosofía Deleuze-Guattari





*Cada comunicación gozará de 20 minutos de duración y en cada sesión habrá un máximo de 30 minutos para el debate.

Propone:
Cristian Osal López (Universidad Jaume I)

Título:
Big Data. ¿Cómo discernir qué es correcto hacer y qué no?

Abstract:
¿Cuál es el problema con que Cambridge Analytics obtuviera datos de 50 millones de personas gracias a Facebook? El llamado “escándalo” de Cambridge Analytics y Facebook pudiera resultar muy útil si nos ayuda a esclarecer el tipo de problema de que se trata en cada caso, en lo que se refiere al Big Data. Con ello podríamos adecuar los enfoques estrategias y acciones requeridas para solucionarlos y evitarlos, digamos, para corregir o rectificar el Big Data.
El propósito en esta comunicación será propiciar el debate para avanzar hacia la consecusión de un marco ético que nos oriente cada vez que surja la cuestión de si algún uso del Big Data es bueno o no para las personas, la ciudadanía y las sociedades humanas en general. Para situar este debate, primero propondremos algunas precisiones terminológicas sobre Big Data, Datos Masivos y Macrodatos. En segundo lugar, presentaremos un boceto para un catálogo de problemas sociales relacionados con el Big Data; la idea sobre la cual buscamos alcanzar acuerdo es que, respecto a estos problemas, los retos más relevantes son de tipo ético. A partir de aquí, argumentaremos por qué en lugar de aspirar a normativas exahustivas que regulen y diriman los problemas sociales relacionados con el Big Data, preferimos intentar algo así como un conjunto de principios orientadores, articulados con claridad y arraigados en nuestros valores cívicos y democráticos contemporáneos, es decir una ética aplicada. A tales principios se les requiere una suficiente reflexión y fundamentación teórica, así como una versátil orientación a la aplicación práctica ¿Por qué? Esta cuestión formará parte de nuestra argumentación.
Al final de esta comunicación esperamos haber alcanzado suficiente acuerdo en una segunda idea: necesitamos un marco ético para el Big Data. Como aporte, ofreceremos a discusión un boceto para dicho marco.


Por qué las políticas de privacidad de Facebook
no evitaron el abuso de Cambridge Analytica

Miguel Moreno Muñoz
Universidad de Granada
mm3@ugr.es



Resumen
El uso de datos generados por usuarios de Facebook para fines comerciales de terceros está ligado al núcleo de negocio de la compañía desde sus inicios. Lo relevante en la instrumentalización hecha por Cambridge Analytica es el alcance y nivel de detalle en los perfiles interconectados a los que pudo tener acceso, incluso estando anonimizados. Si bien los fines de investigación sociológica para trabajos académicos pudieron resultar más neutros a efectos de justificar una cesión tan amplia de información en casos previos, era cuestión de tiempo su instrumentalización con fines de distorsión, intoxicación o modulación de la dinámica política en campañas electorales decisivas.

En primer lugar, por el objeto social de Cambridge Analytica, directamente conectado con la producción de estrategias electorales en régimen de cuasi-monopolio, e ideológicamente muy escorada a la extrema derecha norteamericana, a juzgar por sus principales inversores. En segundo lugar, porque la intoxicación informativa dirigida al consumidor vulnerable forma parte de una estrategia más amplia bien orquestada por los think tanks negacionistas afines a la extrema derecha republicana, con amplia experiencia en la defensa de los intereses de las empresas tabaqueras desde los años 50 y, desde finales de los noventa, muy activos en la defensa de los intereses de la industria de combustibles fósiles frente a las iniciativas de los movimientos ambientalistas y otros actores para reducir las emisiones de gases de efecto invernadero (GHG).

Como hipótesis de trabajo sostengo que las diversas versiones de la política de privacidad de Facebook nunca explicitaban este tipo de cesiones de datos tan amplias como núcleo de su actividad comercial, induciendo a buena parte de sus usuarios a error en cuanto a las garantías que podían esperar de esta compañía sobre sus datos personales cuando consentían su uso y, en particular, ocultando el nivel de detalle con el que podían poner en manos de terceros perfiles sumamente detallados de actividad en la red. Era cuestión de tiempo que las evidencias sobre diversos tipos de instrumentalización para fines política y socialmente cuestionables quedaran sustanciadas. En consecuencia, procede un análisis crítico radical de la dinámica de negocio articulada sobre versiones estructuralmente similares de sus políticas de privacidad, en todos los servicios –mensajería, comunicaciones, redes sociales- bajo control de la misma compañía, extensible a las actividades de sus competidores.

Palabras clave: políticas de privacidad, Facebook, Cambridge Analytica, distorsión informativa, responsabilidad social corporativa.

Bibliografía orientativa

Bahri, L., Carminati, B., & Ferrari, E. (2018). Decentralized privacy preserving services for Online Social Networks. Online Social Networks and Media, 6, 18–25. https://doi.org/https://doi.org/10.1016/j.osnem.2018.02.001

Chang, S. E., Liu, A. Y., & Shen, W. C. (2017). User trust in social networking services: A comparison of Facebook and LinkedIn. Computers in Human Behavior, 69, 207–217. https://doi.org/https://doi.org/10.1016/j.chb.2016.12.013

De Salve, A., Mori, P., & Ricci, L. (2018). A survey on privacy in decentralized online social networks. Computer Science Review, 27, 154–176. https://doi.org/https://doi.org/10.1016/j.cosrev.2018.01.001

DeGroot, J. M., & Vik, T. A. (2017). “We were not prepared to tell people yet”: Confidentiality breaches and boundary turbulence on Facebook. Computers in Human Behavior, 70, 351–359. https://doi.org/https://doi.org/10.1016/j.chb.2017.01.016

Dimakopoulos, P. D., & Sudaric, S. (2018). Privacy and platform competition. International Journal of Industrial Organization. https://doi.org/https://doi.org/10.1016/j.ijindorg.2018.01.003

Estrada-Jiménez, J., Parra-Arnau, J., Rodríguez-Hoyos, A., & Forné, J. (2017). Online advertising: Analysis of privacy threats and protection approaches. Computer Communications, 100, 32–51. https://doi.org/https://doi.org/10.1016/j.comcom.2016.12.016

Fatehkia, M., Kashyap, R., & Weber, I. (2018). Using Facebook ad data to track the global digital gender gap. World Development, 107, 189–209. https://doi.org/https://doi.org/10.1016/j.worlddev.2018.03.007

Fatima, M., Hasan, K., Anwar, S., & Nawab, R. M. A. (2017). Multilingual author profiling on Facebook. Information Processing & Management, 53(4), 886–904. https://doi.org/https://doi.org/10.1016/j.ipm.2017.03.005

Ginosar, A., & Ariel, Y. (2017). An analytical framework for online privacy research: What is missing? Information & Management, 54(7), 948–957. https://doi.org/https://doi.org/10.1016/j.im.2017.02.004

Islam, M. B., Watson, J., Iannella, R., & Geva, S. (2017). A greater understanding of social networks privacy requirements: The user perspective. Journal of Information Security and Applications, 33, 30–44. https://doi.org/https://doi.org/10.1016/j.jisa.2017.01.004

Jin, S. V. (2018). “Celebrity 2.0 and beyond!” Effects of Facebook profile sources on social networking advertising. Computers in Human Behavior, 79, 154–168. https://doi.org/https://doi.org/10.1016/j.chb.2017.10.033

Kokolakis, S. (2017). Privacy attitudes and privacy behaviour: A review of current research on the privacy paradox phenomenon. Computers & Security, 64, 122–134. https://doi.org/10.1016/j.cose.2015.07.002

Lankton, N. K., McKnight, D. H., & Tripp, J. F. (2017). Facebook privacy management strategies: A cluster analysis of user privacy behaviors. Computers in Human Behavior, 76, 149–163. https://doi.org/https://doi.org/10.1016/j.chb.2017.07.015

Lev-On, A. (2017). The third-person effect on Facebook: The significance of perceived proficiency. Telematics and Informatics, 34(4), 252–260. https://doi.org/https://doi.org/10.1016/j.tele.2016.07.002

Ma, X., Ma, J., Li, H., Jiang, Q., & Gao, S. (2018). ARMOR: A trust-based privacy-preserving framework for decentralized friend recommendation in online social networks. Future Generation Computer Systems, 79, 82–94. https://doi.org/https://doi.org/10.1016/j.future.2017.09.060

Malgieri, G., & Custers, B. (2018). Pricing privacy – the right to know the value of your personal data. Computer Law & Security Review, 34(2), 289–303. https://doi.org/https://doi.org/10.1016/j.clsr.2017.08.006

Mamonov, S., & Benbunan-Fich, R. (2017). Exploring factors affecting social e-commerce service adoption: The case of Facebook Gifts. International Journal of Information Management, 37(6), 590–600. https://doi.org/https://doi.org/10.1016/j.ijinfomgt.2017.05.005

Mamonov, S., & Benbunan-Fich, R. (2018). The impact of information security threat awareness on privacy-protective behaviors. Computers in Human Behavior, 83, 32–44. https://doi.org/https://doi.org/10.1016/j.chb.2018.01.028

Marreiros, H., Tonin, M., Vlassopoulos, M., & Schraefel, M. C. (2017). “Now that you mention it”: A survey experiment on information, inattention and online privacy. Journal of Economic Behavior & Organization, 140, 1–17. https://doi.org/https://doi.org/10.1016/j.jebo.2017.03.024

Ortiz, J., Chih, W.-H., & Tsai, F.-S. (2018). Information privacy, consumer alienation, and lurking behavior in social networking sites. Computers in Human Behavior, 80, 143–157. https://doi.org/https://doi.org/10.1016/j.chb.2017.11.005

Pardo, R., Balliu, M., & Schneider, G. (2017). Formalising privacy policies in social networks. Journal of Logical and Algebraic Methods in Programming. https://doi.org/10.1016/j.jlamp.2017.02.008

Patsakis, C., Charemis, A., Papageorgiou, A., Mermigas, D., & Pirounias, S. (2018). The market’s response toward privacy and mass surveillance: The Snowden aftermath. Computers & Security, 73, 194–206. https://doi.org/https://doi.org/10.1016/j.cose.2017.11.002

Rauzzino, A., & Correa, J. C. (2017). Millennials sex differences on Snapchat perceived privacy.
Suma Psicológica, 24(2), 129–134. https://doi.org/https://doi.org/10.1016/j.sumpsi.2017.08.002

Thrul, J., Belohlavek, A., Hambrick, D., Kaur, M., & Ramo, D. E. (2017). Conducting online focus groups on Facebook to inform health behavior change interventions: Two case studies and lessons learned. Internet Interventions, 9, 106–111. https://doi.org/https://doi.org/10.1016/j.invent.2017.07.005

Tran, T. P. (2017). Personalized ads on Facebook: An effective marketing tool for online marketers. Journal of Retailing and Consumer Services, 39, 230–242. https://doi.org/https://doi.org/10.1016/j.jretconser.2017.06.010

Tsai, T.-H., Chang, H.-T., Chang, Y.-C., & Chang, Y.-S. (2017). Personality disclosure on social network sites: An empirical examination of differences in Facebook usage behavior, profile contents and privacy settings. Computers in Human Behavior, 76, 469–482. https://doi.org/https://doi.org/10.1016/j.chb.2017.08.003

van Schaik, P., Jansen, J., Onibokun, J., Camp, J., & Kusev, P. (2018). Security and privacy in online social networking: Risk perceptions and precautionary behaviour. Computers in Human Behavior, 78, 283–297. https://doi.org/https://doi.org/10.1016/j.chb.2017.10.007

Wang, Y., Yang, L., Chen, X., Zhang, X., & He, Z. (2018). Enhancing social network privacy with accumulated non-zero prior knowledge. Information Sciences, 445446, 6–21. https://doi.org/https://doi.org/10.1016/j.ins.2018.02.031

Zhang, S., Li, X., Liu, H., Lin, Y., & Sangaiah, A. K. (2018). A privacy-preserving friend recommendation scheme in online social networks. Sustainable Cities and Society, 38, 275–285. https://doi.org/https://doi.org/10.1016/j.scs.2017.12.031


Neo-frenología digital y sus implicaciones éticas.

por

Aníbal Monasterio Astobiza





Resumen.

La fisionomía es la ciencia de juzgar el carácter interno de un individuo a partir de la apariencia externa y es una pseudociencia que se remonta a la antigüedad. En la actualidad, con el estado actual de la tecnología digital, estamos experimentando un resurgimiento de la fisionomía que podemos llamar: neo-frenología digital. La neo-frenología digital es un nuevo tipo de ciencia del comportamiento que busca predecir y medir el comportamiento a través de la actividad en Internet, sensores en nuestros “smartphones”, comentarios en Facebook o Twitter con la intención de conocer nuestras intenciones, criminalidad, ideología política, orientación sexual, preferencias de consumo e incluso mejorar el diagnostico clínico. En esta comunicación, subrayo las implicaciones éticas de crear tipologías o perfiles de los individuos sobre la base de sus actividades digitales. Argumento que este tipo de investigaciones debe basarse en evidencias más claras dadas las potenciales consecuencias injustas y riesgos sociales y económicos que entrañan.

Palabras clave: neo-frenología digital, ética, predicción del comportamiento.





[1] Aníbal Monasterio Astobiza es investigador posdoctoral del Gobierno Vasco. Actualmente es visitante académico en el Uehiro Centre for Practical Ethics de la Universidad de Oxford. Este trabajo se ha realizado en el marco del proyecto de investigación KONTUZ!: “Responsabilidad causal de la comisión por omisión: Una dilucidación ético-jurídica de los problemas de la inacción indebida” (MINECO FFI2014-53926-R); el proyecto de investigación: “La constitución del sujeto en la interacción social: identidad, normas y sentido de la acción desde la perspectiva de la filosofía de la acción, la epistemología y la filosofía experimental” (FFI2015-67569-C2-2-P)"; el proyecto de investigación “Artificial Intelligence and Biotechnology of Moral Enhancement. Ethical Aspects" (FFI2016-79000-P); “EXTEND: Bidirectional Hyper-Connected Neural System” 77 779982 (H2020-ICT-2017-1); e INBOTS H2020 Topic ICT 28- 2017.



Título: Sobre odradeks, obsolescencia y cosificación. Implicaciones éticas del Internet de las cosas (IoT)
Autor: Patrici Calvo
Institución: Universitat Jaume I
Correo: calvop@uji.es
Mesa temática: Big Data y Tecnologías de la información en perspectiva ética (Cristian Osal y Jon Rueda Etxebarria)

Resumen:
Actualmente, la posición dominante que ostentan dentro del mercado algunas empresas vinculadas con la Industria 4.0, ha extendido la idea de que detrás del éxito empresarial se encuentran los algoritmos, no las personas. De tal modo que ha aumentado la presión de accionistas e inversores sobre la necesidad de algoritmizar la empresa; es decir, para que los algoritmos acaparen el protagonismo tanto en el gobierno como en los distintos procesos productivos, comunicativos y decisorios de ésta. Sin embargo, los continuos casos de mala praxis relacionados con la recopilación y uso indebido de los datos, el relativismo conductual de los algoritmos, las tácticas de fragmentación, disgregación y disolución de la responsabilidad de la empresa por sus acciones y decisiones, la cosificación y mercantilización de todo lo humano, y, sobe todo, la obsolescencia humana por imposición tecnológica—como predijo Günther Anders en 1956— está generando un intenso debate sobre los conflictos, límites y consecuencias de la era de la conectividad digital.
Por un lado, preocupa la posible intromisión de la empresa en el ámbito privado de los usuarios del ecosistema. Los dispositivos relacionados con el ecosistema ciberfísico, con o sin permiso de los usuarios, generan y se nutren de datos internos y externos procedentes de móviles, ordenadores personales, televisores, máquinas de limpieza, automóviles, tarjetas, redes sociales, nubes, webs, relojes inteligentes, tabletas, cafeteras, chip de NFC injertados bajo la piel, etcétera. Es decir, información proveniente de cualquier cosa que esté conectada a la red y sea utilizada por los presentes o futuros empleados. Entre otras cosas, sus hobbies, sus tendencias, sus proyectos de vida buena, sus hábitos y pautas de comportamiento, su afectividad hacia la empresa, su capacidad crítica, etcétera. Todas estas cuestiones difuminan los límites entre lo público y lo privado y atentan sobre el derecho a la intimidad de las personas.
Por otro lado, inquieta y mucho el sesgo sexista, homófobo, xenófobo o aporófobo que aplican los algoritmos utilizados por la empresa en los procesos de toma de decisiones. Como se ha comprobado, muchos de estos algoritmos reproducen los prejuicios generalizados que perviven en la sociedad. A la hora de tomar decisiones vinculadas con la asignación de tareas o la promoción, selección y despido de personal, para éstos prevalece el hombre sobre la mujer, el caucásico sobre el afroamericano, el nativo sobre el extranjero o el rico sobre el pobre. De este modo, los algoritmos se han convertido en un obstáculo para la erradicación de pautas y comportamientos discriminatorios, excluyentes e indecorosos dentro de la empresa que atentan contra la dignidad, igualdad y libertad de las personas.
También preocupa la reestructuración y el reajuste de plantillas. Muchos Departamentos empresariales, especialmente los de Logística y Recursos Humanos, están siendo sustituidos por algoritmos. Este hecho está generando numerosos conflictos. Por ejemplo, aquellos vinculados con el despido masivo de profesionales cualificados; el intrusismo y la usurpación de tareas de actividades profesionales que, en algunos casos, están colegiadas; con la desprotección de los afectados; con la falta de interlocutores válidos; o con las recolocaciones, que pueden suponer una reducción de la cualificación del profesional. Son los efectos más visibles del fenómeno de la obsolescencia humana.
Asimismo, alarma la cosificación y mercantilización del ser humano. Con la transformación digital el ser humano se está convirtiendo en una “cosa conectada” dentro de un sistema ciberfísico creado, controlado y gobernado en muchos casos por algoritmos. Con ello, la cosificación del ser humano ha llegado a su nivel más sofisticado. Convertido en miles de miles de millones de datos objetivables, medibles y transformables en información relevante y conocimiento aplicable, ya no es cuerpo o su fuerza de trabajo sino los registros que éstos generan lo que se ha convertido en una mercancía. El mercado está ávido de datos, y el ser humano no es más que un registro. Pero lo que resulta paradójico y contradictorio en todo ello, es que el mercado ha conseguido que sean las personas quienes se impliquen en su propia cosificación y asuman buena parte de los costes del proceso mediante la adquisición de caros dispositivos móviles con sensores de captación de datos.
También la imposición tecnológica. El mercado ya no es un instrumento para la satisfacción de necesidades humanas, sino para saciar posibilidades técnicas. Como advirtió Anders hace más de medio siglo, el mundo se está convirtiendo en un productor de odradeks, en un creador de objetos sin sentido o razón de ser. Es la capacidad tecnológica la que marca el rumbo del mercado y la sociedad. Si la tecnología permite hacer algo, es imperativo moral realizarlo aun cuando carezcan de cualquier sentido o incluso puedan fomentar la destrucción de la humanidad.
Finalmente, preocupa la despersonalización de la responsabilidad. Ahora son los algoritmos, no las personas, quienes deben asumir la responsabilidad por las consecuencias de sus decisiones. Con ello se está estableciendo un peligroso mecanismo de fragmentación y/o disolución de la responsabilidad legal, social y medioambiental que permite a las empresas irresponsables sortear las exigencias legítimas de sus stakeholders.
En definitiva, hoy existen nuevas preguntas. Preguntas relacionadas con la conectividad digital cuyas respuestas debe apoyarse en una ética de las cosas; un nuevo campo de investigación cuya principal tarea consiste en dilucidar los presupuestos normativos de la Industria Inteligente y criticar desde la argumentación y el diálogo tanto el diseño como el conocimiento y comportamiento de las plataformas, ecosistemas ciberfísicos, máquinas inteligentes, algoritmos o dispositivos que recaban información y se nutren de datos masivos e información relevante para tomar decisiones que nos afectan y competen. Una ética que exige responsabilidad, trasparencia, diálogo y monitorización para evitar los efectos negativos de la Industria 4.0. Porque, entre otras cosas, los algoritmos son un arma de doble filo que, sin control o escrutinio público, pueden producir situaciones injustas, nada responsables y muy poco beneficiosas para las partes en relación.

Bibliografía básica:
Anders, Günhter (2011): La obsolescencia del hombre (Vol. II). Sobre la destrucción de la vida en época de la tercera revolución industrial, Valencia: Pretextos.
Calvo Patrici y Osal, Cristian (2018): “Whistleblowing y Datos Masivos: monitorización y cumplimiento
de la ética y la responsabilidad social” El profesional de la Información, 27 (1), 173-184, https://doi.org/10.3145/epi.2018.ene.16.
Gianmarco Baldini, Maarten Botterman; Ricardo Neisse; Mariachiara Tallacchini (2016): “Ethical Design in the Internet of Things”, Sci Eng Ethics, 1-21, https://doi.org/10.1007/s11948-016-9754-5.
Monasterio-Astobiza, Aníbal (2017). “Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos”. Dilemata. Revista internacional de éticas aplicadas (24), 185-217.
Colmenarejo, Rosa (2018): Una Ética para Big Data. Introducción a la gestión de datos masivas, Barcelona, Editorial UOC.


Propone: Jon Rueda Etxebarria (Joven Personal Investigador, no-doctor, en la Universidad de Granada)

Título: Privacidad, panóptico digital y nuevas formas de vigilancia

Abstract:

Las nuevas tecnologías de la información permiten la recogida, almacenamiento y procesamiento de una cantidad ingente de datos masivos (Big Data). Ello ha abierto puertas muy valiosas en muchos campos de los que la sociedad puede valerse, como en la investigación biomédica, en la gobernanza pública, en ONGs que ayudan a buscar trabajo a desempleados… Sin embargo, los ecos que nos llegan mediáticamente vienen proferidos por culpa del lucro desmedido que están haciendo empresas del sector privado que se dedican a hacer negocio de los datos personales de los ciudadanos. Me gustaría dedicar la primera parte de esta comunicación a señalar varias de las cuestiones éticas que se desprenden de esta disminución de la privacidad que se está cometiendo por intereses principalmente crematísticos.

La siguiente aproximación versará sobre cómo estas nuevas tecnologías de la información permiten unos niveles de vigilancia jamás imaginados, ni siquiera presentes en las premoniciones más distópicas de George Orwell. David Lyon y Zygmunt Bauman (2013) han propuesto el término ‘vigilancia líquida’ para designar este tipo de vigilancia descentrada y que, vinculada al panóptico digital, sería ubicua. Nuestras relaciones humanas hiperconectadas en la infoesfera, en la naciente época del Algoriceno, no paran de dejar pistas que son rastreables digitalmente. La mayoría de estas interacciones las realizamos deliberadamente, pero sin tener claro la lejana dimensión en la que tienen repercusión nuestras más nimias acciones.

El análisis foucaultiano (1975) sobre el panóptico de Bentham vinculado a su análisis de las sociedades disciplinarias parece algo lejano. Autores como Byung-Chul Han, más afín a postulados deleuzianos sobre la sociedad de control en la que se tiene en cuenta la iniciativa individual, han tratado de actualizar dichos análisis. Podemos usar gratis aplicaciones como Google Maps bajo el pago no monetario de estar constantemente geolocalizados; gracias a lo que las empresas nos dan la bienvenida cuando nos movemos a otra ciudad y nos recomiendan, por ejemplo, los restaurantes más cercanos que los publicitan. Defenderé que el consentimiento no es del todo informado.

Además, cabe destacar el uso que hacen las agencias de inteligencia de la gran cantidad de datos masivos de los ciudadanos, cedidos en su mayoría por empresas privadas. Este será el último punto que atenderé. El caso Snowden destapó la red de ciberespionaje mundial liderada por la Agencia Nacional de Seguridad (NSA) de Estados Unidos, gracias a la colaboración de las grandes empresas tecnológicas. Edward Snowden es, sin duda, uno de los whistleblowers más importantes de lo que llevamos de siglo. Los aparatos externos de vigilancia como los drones, los escáneres biométricos, las videocámaras de circuito cerrado son la parte externa del iceberg de la vigilancia. Su forma más profunda, velada y sutil se hunde en nuestra relación con los dispositivos electrónicos que utilizamos. A raíz de ello, ofreceré varias reflexiones sobre nuestras sociedades en las que las reivindicaciones en favor de la privacidad se encuentran con demandas de seguridad crecientes en las que vemos en riesgo
por doquier. Las últimas consideraciones versarán, visto lo visto, sobre la libertad de expresión y la distinción dicotómica heredada de la modernidad entre la esfera privada y la esfera pública. Defenderé, en consecuencia, la exigencia democrática de la transparencia y justificación de los objetivos en torno a la vigilancia masiva e indiscriminada por parte de los gobiernos (y no al revés) y la necesidad de una educación para una ciudadanía digital.



Manuel Cebral | Filósofo, docente e investigador
más info http://man.herm3tica.tv
contacto: man.cebral@gmail.com

Ámbitos de transvaloración tecnológica a través de la filosofía de Deleuze-Guattari

La filosofía deleuziana es utilizada tanto para alentar el actual devenir tecnológico y virtual de la sociedad como para lo contrario: proclamar la necesidad de zonas y capas opacas a la interconectividad. Probablemente esto se deba a que la tecnología en sí misma es neutra: depende de nuestros usos o aplicaciones. Pero, si contrastásemos esos usos actuales y aplicaciones, ¿qué ámbitos serían los más críticos, aquellos en los que más sensiblemente cabe una transvaloración del uso de las tecnologías? Se proponen 4 ejes en torno a los cuáles nos jugamos críticamente el uso humano y social de la tecnología:

Conexiones nómadas y rizomáticas vs. Internet centralizado y arborescente: Deleuze-Guattari defendieron el concepto de rizoma, como arquitectura descentralizada y conectada al mismo tiempo.Toda máquina es social antes que técnica vs. Desarrollo de manera determinista y obsesión por la técnica: Deleuze-Guattari utilizan el concepto de máquina para referirse a todo agenciamiento social sobre el medio, lo cual contrasta con una comprensión de la tecnología como útil.Devenir animal e imperceptible vs. tecnología antropomórfica e hiperpersonalizada: la tecnología debe permitir desde otras formas de percepción no necesariamente humanas, hasta la participación anónima y masiva.Movimientos internos de un cuerpo sin órganos, sensaciones e intensidades vs. Extensiones artificiales imitativas: no está desarrollada una tecnología que estudie nuestra propiocepción, “thick data”, ...