Contemporary Art in the Americas Arte Contemporáneo en las Américas

Ready-Made Truths

Lucas Lugarinho

From the digital landscapes designed for the video game "Metal Gear Solid 2," the artist Lucas Lugarinho opts for "ready-made truths" as strategies to play with images that, in face of fake news and capitalizable data, revise the fictions that are presented to us via pixels.

Desde los paisajes digitales diseñados para el videojuego "Metal Gear Solid 2", el artista Lucas Lugarinho apuesta por las "verdades ready-made" como estrategias para jugar con imágenes que, ante las fake news y los datos capitalizables, revisen las ficciones que desde el pixel se nos presentan.

Still from MGS2 Codec Talk revealing the AI’s participation in the story. Image courtesy of the author

I

When Playstation 2’s tactical espionage game Metal Gear Solid 2: Sons of Liberty was released in 2001, the role of the Internet was still unclear. By that time, most users of the early millennia global networks’ interaction was limited to the discussion of fiction and speculation in forums specialized in various subjects. By dabbling in the image-making tools that were offered by the pixels’ visual possibilities on a screen, one could argue that the web 1.0 was used primarily as a hub for the aesthetic and functional experimentation of images and narratives. A land where fiction reigned supreme. Since then, this “no man’s land” has suffered a fast process of colonization, being occupied by multi-millionaire corporations. As technology and accessibility began to re-design web interaction, this old free-land of fiction was proclaimed a new kingdom of reality. Built atop its ruins of myths were monopolistic platforms that now host most of the world’s existing imaginaries through extractive exploitation.

The director of MGS2, Hideo Kojima, seemed conscious of the inevitable instrumentalization of virtual spaces; consequently proliferating both truths and hoaxes, while dictating reality through humanity’s increased dependence on biased algorithms[1] hiding beyond crystal clear screens. Towards the end of the gameon a cutscene dialogue with its commandant—Raiden (the protagonist used by the player) finds himself being manipulated by Artificial Intelligences, giving him orders to accomplish different political and espionage tasks. In order to explain their motivations for controlling and censoring the information accessing the Internet, the AIs in question comment on the abysmal amounts of disposable data generated by their users: single-use data that is accumulated and reorganized in various ways, always at convenience of the singular reality of the spectator, crystallizing (as) truths for non-critical viewers (at the convenience of their singular realities). In the English version of the game, these are referred to as ready-made truths, a translation made years before the popularization of fake news, which captured public interest mostly after its impact in politics and recent elections. As part of the video game’s narrative, the AI’s then proceeded to explain how their interference in the ‘natural’ order of digital ecologies can reunite the entire country under the banner of progress, finally ending an era of moral decadence and decentralization of common beliefs. 

The achievement of the localization of MGS2, handled mostly by the anglo-Japanese translator Agness Kaku, was to address an analogy to the current information problematics through a non-biased lens and modern terminology. It comes as no surprise that, at the beginning of this new decade, we’re living in quite a state of emergency relative to disinformation; struggling to find consensus on real events while junk data accelerates the next destabilization of social and political organizations of traditional capitalism—a disturbance that will likely be continuously countered with more austere policies that value matter over life. But to be fair, isn’t the very name fake news favorable to this process, as it celebrates the dichotomy between true and false in a space whose foundations were dedicated to aboard fictions? Especially when we take into consideration the exponential growth and sophistication of post-production techniques such as deepfakes?[2]

Thinking about this issue, the present text proposes the adoption of the terminology ready-made truths presented in MGS2: a name which I believe designates with more precision the nature of this data, and evokes the avant-garde practice of the ready-made, introduced by Marcel Duchamp over 100 years ago. In order to explain the proposing of this new nomenclature, we have to analyze the importance of ready-mades as means of resistance and agency of an individual over their imagination—to virally access others—as well as the recent weaponization of information by vastly decentralized news portals.

Graphic depicting user engagement on the web. Image courtesy of the author

II

Having existed since the very dawn of societal life, misinformation is nothing new. But looking at it from another perspective, we could say that the struggle between a homogenous reality, sustained by a centralized and designed belief, versus a plethora of dissident cells of resistance knowledge labeled as fiction, has had a central role in the history of organized societies. Religious persecutions of ‘other’ beliefs, medicines and sciences, the categorization between sane and insane people, the self-made divine birthright of kings and contemporary political propaganda, all of them have one thing in common: the instrumentalization of images by a status quo social organization (ex: kingdoms, states, churches) in order to achieve the monopoly over a local imagination and proceed to manage its resources. In regard to that, the concept of misinformation becomes dangerously malleable, allowing popular imaginaries to be exploitable as natural resources under the same old fashion cartesian logic that fragments our interdependence within the place we inhabit—being this virtual or physical. According to journalist Steven Poole, 

“In his Novum Organum (1620), the natural philosopher Francis Bacon describes for the first time the psychological phenomenon that underlies so much of our modern worries about trust and truth—what would only much later be christened ‘confirmation bias’. Our minds, he notes, tend to lend more weight to ‘affirmative’ (or positive) than to negative results, so a person is likely to ‘seize eagerly on any fact, however slender, that supports his theory; but will question, or conveniently ignore, the far stronger facts that overthrow it’.”[3]       

On top of that, borderline or limit content—media that nearly violates policy lines (such as misinformation, hate speech, violence, bullying, clickbait)—became the most engaging kind of content on the Internet; providing an arguably unethical source of profit to social media. This strategy can be loosely comparable to the corruption of ecosystems: the extraction of resources that degrades the necessary links to coexist. This principle of limit content is often used in fiction media, such as the overexploited gimmick of plot twists planned to engage viewers. But in the case of MGS2, director Hideo Kojima utilizes borderline content as a critical tool. 

This is the most powerful Sun the world has ever seen. Advertisement for Sun Microsystems OS, 1988. Image courtesy of the author

Youtuber ThorHighHeels has recently pointed out in his Metal Gear retrospective videos that Metal Gear Solid 2 is a mock sequence. In resume, Thor speculates that Kojima designed the game as a metacommentary on the fanboy/otaku persona—media enthusiasts that are fanatically attached to the images they consume. As the sequel went into production, in order to directly capitalize on the success of the first MGS, and arguably against Kojima’s intentions, he created a sequel narrative to tease and deceive its players, going as far as showcasing a nine-minute game trailer with fake footage at E3[4] in the year 2000.

It’s not hard to spot the tone of mockery in the actual game’s narrative footage as Raiden—the unexpected unknown protagonist that took the place of the previous one, the great Solid Snake—is constantly being ridiculed throughout the play through stepping in bird’s poop, forced to traverse segments of the map while naked, even being misgendered—he’s a dislikable protagonist in the eyes of a regular fanboy. The story goes as, given the events of the first installment of the MGS franchise, (the great) Solid Snake, made use of the global networks to spread classified data about the Metal Gear project, a cold-war-esque-gundam-like-war-machine-development-research that serves as the main plot device of the franchise. These leaks, compared by HighHells to Julian Assange’s work in Wikileaks, set the events of MGS2 in motion, where Raiden is now tasked by the government to stop Snake with the backstory that he’s now a hero-turned-terrorist that had overrun an offshore cleanup facility. The story then unfolds with Raiden and the player both discovering the inconsistencies of the simulation built around them, culminating in the AI’s dialogue that precedes the game’s final climax.        

Setting the arguably political naiveness of the story aside, the game makes its point by exploiting the beliefs and expectations of its fans in order to comment on the manipulative nature of media. This approach to game design evokes certain parallels with Duchamp’s ready-mades, where the artist developed at-the-time hard to digest pieces taking into account it’s settings, viewers, and the historical and poetical implications of its industrialized materials—generating a discussion around the established canon of the art world. While Duchamp’s non-retinal provocations served as critiques of the established legitimation process of artworks, in MGS2, Kojima questions the beliefs of game fandoms—people fanatically devoted to the media they consume and often given the freedom to exercise whatever methods disposable with the excuse of incarnating a hero. In both cases, these works invite their spectators to gain agency of their own imaginations and inject a dose of critical fiction into the established realities of its mediums [(what if) art looked like this (?) / (what if) games were played like this (?)]. This issue, however, reaches a whole new dimension when, instead of assuming itself as openly fictional, a designed medium poses as simulacra of reality, such as the case of news portals. 

What Kojima’s MGS2 and Duchamp’s ready-mades do is, to an extent, utilize their mediums to play with their users’ already highly biased imaginaries by betraying their ocularcentric desire. But in contrast to that approach, most fake news agents design borderline content in order to appeal to, or spoil, pre-established beliefs. In MGS2’s story, the government self-born AI controls the information on the Internet to maintain a homogenous public opinion—but in reality, what we observe nowadays is an ever-going multifaceted image war, where old occidental monopolies fail to achieve a favorable consensus. Instead, micro-targeted individual truths incentivize digital disagreements while fragmenting notions of kinship and belonging, by exploiting an aspect inherent to images that is very well-known by art history and Duchamp himself: speculation.

Diagram made by the Deep State Mapping Project linking conspiracy theories to the COVID19 events. See more in <https://deepstatemappingproject.weebly.com/>

III

The contemporary battleground of bot wars and media minions is a direct reflection of the initial difficulties that cultural industries faced while trying to profit from this NEW world of the Internet—mostly because of piracy. News channels specifically struggled against the phenomena of the decentralization of the sources of information, as social media promised to be an effective way to (re)organize people without the need for opinionated offshore mediums. With the establishment of the first billionaire platform monopolies, attracting most of the internet’s traffic, news channels strategically tried to place themselves as arbiters of truthfulness, while fighting against the enemy of unverified pirated truths, the “fake news.”[5] But the tides had already turned on our relationship with reality for their efforts to really pay off.

Differently than other types of media giants, that have by now successfully re-designed the way we consume art and fiction (Sp*tify, N*tflix, Am*zon, to mention a few), news conglomerates still have to overcome the micro-realities of Internet communities—users that come together by spoiling each other’s confirmation biases, often organizing themselves as ready-made truth militias conspiring against established narratives.[6] While larger mediums use their scope and the overabundance of data in favor of their own agendas and narratives of the world, non conformed user-bases began a similar process but using images that are buried under the layers of imposed truth instead. More than pirating news, these guerrillas of fiction empower their world-views with ready-made truths manufactured from within the datascape, both by people and by robots. In order to weaponize this data, agents inject speculation into memes, testimonials, and re-contextualized images, to engage in a Gramscian-like cultural war for the resources of Internet users’ imaginations. The counter-production of information serves both as a means of resistance and propagation of ideologies, where the fight between anti-hegemonic and established truths are constantly colonizing and decolonizing digital landscapes and their attached political imaginaries.

In a way, Duchamp’s ready-mades approach the fake news phenomena: both are radical montages of commodities (objects and data) that explicitly question hegemonic impositions/realities. This conjecture might sound like ready-made truths are effective weapons of revolution, but just like in the physical world, digital militias are often (and easily) co-opted by greater schemes, may it be algorithmic shopping singularities, corporative spring-riots, or political whitewashing.[7] The same can be perceived for how Duchamp’s ready-mades aged, becoming themselves canon and a representation of how unreachable the art world is.    

Digital guerrillas—of human or algorithmic bots (or both)—often design and frame information in order to compete for social media metrics of productivity (likes, shares, subscriptions) that, in return, attest the truthfulness of a proposed opinion, edited fact or world-view to its observers. The value of design over facts has always been in favor of warfare, such as discussed by Susan Sontag in her book Regarding the Pain of Others[8] and attested by the fact that social media doesn’t curate its content based on legitimacy or truthness but to show the most expected engagement media based on popularity. This aspect has now permeated most of our experience over the web: from get-a-bigger-dick spam ads to forest fires ten-year-old pics in recent international headlines, to teasing presidential tweets. What fake news underlined was how images are weaponized to fight, not over the truth or over reality but over our attention by becoming cleaner, sexier, dangerous, colorful: deceitful portals to either newer worlds, or reminders of the ones we already hold in our minds. Just as the name Fine Arts, or in the case of games the title of AAA, within the name fake news resides a weapon of homogenization that needs to be discussed in favor of a long-term plan of coexistence in a world of constant (visual) fragmentation. 

An old patent for nervous system manipulation by electromagnetic fields from monitors. Image courtesy of the author

IV

This text is, by no means in favor of misinformation, but is instead, a proposal for a new approach towards the screens that hold the necessary links to each other. Because hidden behind the light that hits our eyelids, the bright images of digital screens also cast its shadows in the form of advertisement and speculation. Digital verification processes of facts and information can barely manage to cover up for the impact of misinformation to biased users: and if they did they would work as homogenization tools, as specific user-bases often reject mediums contrary to their beliefs. I believe that within the name ready-made truths lie a strategy of playing with an image rather than weaponizing it. It’s a way of bonding rather than extracting and instrumentalizing.   

What our contemporary times have successfully managed to stage is a world where humans are mediated through screens, where sovereignty and reality are discussed through a medium whose lights appeal to our individual desires rather than effectively link ourselves as a community—a scenario where disagreement reigns. But perhaps we can begin to rethink this paradigm with an easy agreement, a historical and social concordance that dates back generations, beliefs, and cultures, regardless of their occidental technological standards or the complexity of their folklore. An iconoclast strategy dressed up in ocular-centrism. The belief all users of the network assume to be true when we look at a digital screen, as for example while reading this text: the idea that an image is real. With this thought in mind, we can presume that, to trace ourselves new links of coexistence, we need to acknowledge the sovereignty of images as shape-shifting beings rather than resources. We have to bond with images in order to nurture different connections between ourselves in all the realms we inhabit. 

Lucas Lugarinho (Rio de Janeiro, 1992) studied a degree in Painting at the Escola de Belas Artes in Rio de Janeiro (2010 – 2016), having studied the 2014 school year at the Universidad Nacional Autónoma de México, Ciudad de Mexico. He is a former student of Telecommunications (2007 – 2009), by CEFET-RJ, an experience that significantly influences his artistic practice, contextualizing his interest in computing on a global scale and the issues of digital culture, virtualization of nature and mutualism between images and humanity.

Notes

[1] Biased algorithms are the foundation of machine learning. They are what drives intelligent machines to make decisions by examining different types of biases most commonly found in datasets by identifying, for example, historical data or stereotypes that already exist in society according to hegemony.

[2] Deepfakes are synthetic media that replaces a person’s likeness in an original source image or video for someone else’s—for both deceitful or entertainment purposes. The term deepfake was coined in 2017 by Reddit users in subforums dedicated to implementing neural networks to enhance computer vision algorithms capable of generating pornographic content using the likeness of famous persons, as well as memes or other forms of entertainment media. The highly deceivable nature of this technology poses a challenge to the future of digital communication and politics.

[3] Steven Poole, “Before Trump: the real history of fake news,” The Guardian, November 22, 2019 <https://www.theguardian.com/books/2019/nov/22/factitious-taradiddle-dictionary-real-history-fake-news>

[4] The Electronic Entertainment Expo, also known as E3, is a three-day-long world premier event in the city of Los Angeles for computer and video games and related products.

[5] The exploitation of the overabundance of data is a tactic widely employed by ready-made truth militias, but this strategy has actually been in use by media monopolies for a long time now – news conglomerates just redesigned anti-piracy technologies into social engineering algorithms. The music industry for example has pioneered the method of content poisoning, the practice of sharing corrupted data into servers, hoping that users would be discouraged to pirate files by polluting their networks to later preach about the unsafe nature of these cyberspaces. Nowadays news channels have a big interest in topics such as the regulation of fake news and every scandal concerning misinformation on the web, as social media became for the news portals what Piratebay is for entertainment industries. <http://thepiratebook.net/>

[6]  It is important to notice that confirmation biases are also responsible for the idea that only the ‘otherness’ manages such tactics as false information. For example, the flat earther narrative that states that images of outer space are crafted by governmental space programs such as NASA. But despite political or religious inclination, ready-made truth militias operate within a wide range of socio-virtual groups, including the ones the reader might feel affiliated to: from teenagers indoctrinated by extremist right-winged twitch streamers, to leftist communist online book clubs. I believe the question lies more within a praxis of confirmation around biased information rather than a moral or ethical dilemma. For example this two biased news from left and right political opinions in Brazil: fake news from the right-wing <https://www.boatos.org/politica/mamadeira-kit-gay-distribuida-em-creches.html> and fake news on the left-wing <https://catracalivre.com.br/cidadania/mutilacao-suastica-em-jovem-por-fas-de-bolsonaro-e-fake-news/>

[7] It is worth mentioning that, in the vast networks that leak ready-made truths, there are numerous agents, both physical and virtual, that have crucial roles in spreading (mis)information. What can be traced back to 4chan’s prank ready-made truth raids to Wikipedia’s pages have now become a whole subindustry of its own, with cases such as the Cambridge Analytica’s electoral scandal. Organizations specialized in farming data to spread ready-made truths have updated old political publicity strategies to better define its targets, but it’s important to notice the ongoing role of both younger and older userbases in these schemes—mostly because of both groups unawareness on how the technology they use harvest their imaginaries. See more <https://www.bbc.com/news/technology-46823739> and <https://www.expressnews.com/opinion/commentary/article/Cepeda-Young-people-are-ill-equipped-to-navigate-14966318.php>

[8] See more in Susan Sontag, Regarding The Pain Of Others (New York: Picador, 2003), p.43: “Not surprisingly, many of the canonical images of early war photography turn out to have been staged, or to have had their subjects tampered with. After reaching the much-shelled valley approaching Sebastopol in his horse-drawn darkroom, Fenton made two exposures from the same tripod position: in the first version of the celebrated photograph he was to call “The Valley of the Shadow of Death” (despite the tide, it was not across this landscape that the Light Brigade made its doomed charge), the cannonballs are thick on the ground to the left of the road, but before taking the second picture — the one that is always reproduced — he oversaw the scattering of cannonballs on the road itself. A picture of a desolate site where a great deal of dying had indeed taken place, Beato’s image of the devastated Sikandarbagh Palace involved a more thorough arrangement of its subject, and was one of the first photographic depictions of the horrific in war.”

This text is one of those selected through our open-call.

Still de MGS2 Codec Talk que revela la participación de la IA en la historia. Imagen cortesía del autor

Verdades Ready-Made

I

Cuando se lanzó el juego de espionaje táctico Metal Gear Solid 2: Sons of Liberty de Playstation 2 en 2001, el rol que jugaría el Internet seguía siendo difuso. En ese entonces, la interacción de lxs usuarixs de las redes globales del nuevo milenio se limitaba a la discusión de la ficción y la especulación en foros especializados en diversos temas. Al incursionar dentro de las herramientas de creación de imágenes ofrecidas por la posibilidad visual de los píxeles en una pantalla, se podría argumentar que la web 1.0 se utilizaba principalmente como un centro para la experimentación estética y funcional de imágenes y narrativas; tierra donde reinaba la ficción suprema. Desde entonces, esta “tierra de nadie” ha sufrido un rápido proceso de colonización, siendo ocupada por corporaciones multimillonarias. A medida que la tecnología y la accesibilidad comenzaron a rediseñar la interacción web, esta antigua tierra de ficción se proclamó como un nuevo reino de la realidad. Construidas sobre sus ruinas de mitos había plataformas monopólicas que ahora albergan la mayoría de los imaginarios existentes en el mundo a través de la explotación extractiva.

El director del MGS2, Hideo Kojima, parecía estar consciente de la inevitable instrumentalización de los espacios virtuales; en consecuencia, proliferando tanto verdades como engaños, al tiempo que dicta la realidad a través de nuestra creciente dependencia a algoritmos sesgados [1] que se esconden detrás de las pantallas cristalinas. Casi al final del juego —durante un diálogo en escena con su comandante—, Raiden (el protagonista utilizado por lx jugadorx) se encuentra a sí mismo siendo manipulado por inteligencias artificiales que le ordenan cumplir con distintos deberes políticos de espionaje. Con el fin de explicar sus motivaciones para controlar y censurar la información que accede a Internet, las IA en cuestión comentan las cantidades abismales de datos desechables generados por sus usuarios: datos de un solo uso que se acumulan y reorganizan de varias maneras, siempre a conveniencia de la realidad singular de lx espectadorx, cristalizando[se] [como] verdades para lxs espectadores no críticxs (a conveniencia de sus realidades singulares). En la versión del juego en inglés, éstas son referidas como ready-made truths, traducción creada años antes de la popularidad de las fake news, las cuales apenas captaron el interés público tras su impacto en recientes elecciones. Como parte de la narrativa del videojuego, las IA proceden a explicar cómo su interferencia en el orden ‘natural’ de las ecologías digitales puede reunir a un país entero bajo el letrero del progreso, finalmente terminando una era de decadencia moral y la descentralización de creencias en común.

El logro de la localización del MGS2, manejado en su mayoría por el traductor anglo-japonés Agness Kaku, fue para atender una analogía a las problemáticas de información actuales, a través de un lente no sesgado y terminología moderna. No es sorpresa que, desde principios de esta década, vivimos en un estado de emergencia relativo a la desinformación; luchando por encontrar consenso sobre eventos reales mientras que la data basura acelera la siguiente desestabilización de organizaciones políticas y sociales del capitalismo tradicional —un disturbio que probablemente se contrarrestará continuamente con más políticas austeras que valoran la materia sobre la vida. Pero para ser justxs, ¿no es el nombre fake news favorable a este proceso, al celebrar la dicotomía entre lo verdadero y lo falso en un espacio cuyos cimientos fueron dedicados a la ficción, y especialmente cuando tomamos en cuenta el crecimiento exponencial y la sofisticación de técnicas de postproducción como las deepfakes? [2]

Pensando en esta cuestión, el presente texto propone la adopción de la terminología verdades ‘ready-made’ presentada en MGS2: un nombre que, creo, designa con precisión la naturaleza de esta data, y evoca la práctica avant-garde del ready-made introducido por Marcel Duchamp hace más de 100 años. Para explicar el propósito de esta nueva nomenclatura, hay que analizar la importancia de las verdades ‘ready-made’ como medio de resistencia y agenciamiento de una persona sobre su imaginación, para acceder viralmente a otrxs, así como la reciente armamentización informativa por parte de los enormemente descentralizados portales de noticias.

Gráfico que representa la participación de lx usuarix en la web. Imagen cortesía del autor

II

Habiendo existido desde el nacimiento de la vida social, la desinformación no es cosa nueva. Sin embargo, observándola desde otra perspectiva, podríamos decir que la lucha entre una realidad homogénea, sostenida por una creencia designada y centralizada, contra una plétora de células disidentes del conocimiento de la resistencia etiquetadas como ficción, ha tenido un rol central en la historia de las sociedades organizadas. Persecuciones religiosas de otras creencias, medicinas, ciencias, la categorización de personas sanas y enfermas, el derecho al nacimiento divino creado por los mismos reyes y la propaganda política contemporánea, todo tiene una cosa en común: la instrumentalización de imágenes por un status quo socialmente organizado (como reinos, estados, e iglesia), con el fin de alcanzar el monopolio sobre la imaginación local y proceder a manejar sus recursos. Respecto a esto, el concepto de desinformación se vuelve peligrosamente maleable, permitiendo que los imaginarios populares sean igual de explotables que los recursos naturales bajo la misma vieja lógica cartesiana que fragmenta nuestra interdependencia dentro del lugar que habitamos, ya sea virtual o físico. Según el periodista Steven Poole,

“En su Novum Organum (1620), el filósofo Francis Bacon describe por primera vez el fenómeno psicológico que explica gran parte de nuestras preocupaciones modernas sobre la confianza y la verdad —lo que después se bautizaría como sesgo de confirmación. Nuestras mentes, apunta, tienden a dar más peso a lo afirmativo (o positivo) que a los resultados negativos, por lo que es sencillo que una persona ‘aproveche con entusiasmo cualquier dato, por muy débil que este sea, que apoye su teoría; pero cuestione, o ignore, según su conveniencia, los hechos que la desmientan’ ”. [3]

Por encima de esto, el contenido límite o al límite —medios que prácticamente violan las líneas políticas (como desinformación, discursos de odio, violencia, intimidación, clickbait)— se convirtió en el contenido más atractivo del Internet; proporcionando una fuente de ganancias poco éticas para las redes sociales. Esta estrategia fácilmente se compara con la corrupción de los ecosistemas: la extracción de recursos que degrada los enlaces necesarios para coexistir. Este principio de contenido límite es utilizado frecuentemente en los medios de ficción, como lo son la sobreexplotada cantidad de plot twists planeados para atraer a lxs espectadorxs. Pero en el caso de MGS2, el director Hideo Kojima utiliza contenido límite como herramienta crítica.

This is the most powerful sun the world has ever seen – Publicidad para el sistema operativo Sun Microsystems, 1988. Imagen cortesía del autor

Recientemente, dentro de sus videos en retrospectiva de Metal Gear, el Youtuber ThorHighHeels destacó que Metal Gear Solid 2 es una burla. En resumen, Thor especula que Kojima designó al juego como un meta comentario al personaje fanboy/otaku: entusiastas mediáticos atados fanáticamente a las imágenes que consumen. Mientras se producía la secuela, con el objetivo de capitalizar el éxito del primer MGS, y en contra de las intenciones de Kojima, creó una secuela narrativa para engañar a lxs jugadorxs; mostrando un tráiler de nueve minutos hecho de material falso durante la E3 [4] en el año 2000.

No es difícil notar el tono de burla dentro de la narrativa del juego actual mientras Raiden —protagonista desconocido e inesperado que toma el lugar del gran Solid Snake— es constantemente ridiculizado: pisando heces de pájaro, viéndose forzado a recorrer segmentos del mapa desnudo, e incluso siendo malgenerizado. Es un protagonista no agradable a los ojos del fanboy regular. La historia continúa mientras, dados los eventos de la primera instalación de la franquicia MGS, el protagonista previo, Solid Snake, hace uso de redes globales para esparcir data clasificada sobre el proyecto Metal Gear, una esque-gundam-máquina-de-guerra-de-desarrollo-e-investigación-de-la-Guerra-Fría que sirve como dispositivo principal de la franquicia. Estas fugas, comparadas por HighHells al trabajo de Julian Assange en Wikileaks, ponen los eventos de MGS2 en movimiento, donde el gobierno le otorga a Raiden la tarea de detener a Snake con la excusa de que ahora es un héroe convertido en terrorista que ha invadido una instalación de limpieza en alta mar. La historia continúa con ambxs, Raiden y lx jugadorx, descubriendo las inconsistencias de la simulación construidas alrededor, culminando en el diálogo de las IA que preceden al clímax final del juego.

Dejando a un lado la ingenuidad política de la historia, podría decirse que el juego aprovecha su punto de vista al explotar las creencias y expectativas de sus fanáticxs para comentar sobre la naturaleza manipuladora de los medios. Dicho acercamiento al diseño del juego evoca ciertos paralelismos con los ready-mades de Duchamp, donde el artista desarrolló piezas difíciles de digerir en aquel tiempo al tomar en cuenta sus ajustes, espectadorxs, y las implicaciones históricas y poéticas de sus materiales industrializados —generando una discusión alrededor del canon establecido en el mundo del arte. Mientras que las provocaciones no racionales de Duchamp servían como crítica a la legitimación establecida sobre los procesos artísticos, en MGS2, Kojima cuestiona las creencias de lxs jugadorxs fandoms —gente fanáticamente devota a los medios que consumen, y a la que generalmente se le otorga la libertad de ejercer cualquier método a su disposición con el pretexto de encarnar a un héroe. En ambos casos, este trabajo invita a lxs espectadorxs a obtener agencia de su propia imaginación y a inyectar una dosis de ficción crítica dentro de las realidades establecidas por sus medios [(y sí) (¿) el arte se viera así (?) / (y sí) (¿) los juegos se jugaran así (?)]. Sin embargo, esta cuestión, alcanza una dimensión totalmente nueva cuando, en lugar de asumirse abiertamente como ficticia, un medio diseñado la posee como simulacro de la realidad, al igual que con los portales nuevos.

Lo que hacen los ready-mades del MGS2 de Kojima y Duchamp es, de cierto modo, utilizar sus medios para jugar con los imaginarios —ya sesgados— de sus usuarixs, al traicionar su deseo ocularcéntrico. Pero en contraste a este acercamiento, la mayoría de lxs agentes de las fake news diseñan contenido al límite con el fin de apelar y transformar creencias preestablecidas. Dentro de la historia de MGS2, el gobierno auto-creado y controlado por IA dirige la información del Internet para mantener una opinión pública homogénea. Sin embargo, lo que realmente observamos hoy en día es una continua y multifacética guerra de imágenes donde viejos monopolios occidentales no logran un consenso favorable. En su lugar, verdades individuales micro dirigidas incentivan desacuerdos digitales, fragmentando nociones de reinado y pertenencia al explotar un aspecto inherente a las imágenes que es conocido por la historia del arte y Duchamp mismo: la especulación.

Diagrama realizado por el Deep State Mapping Project que vincula las teorías de la conspiración con los eventos COVID19. Ver más en <https://deepstatemappingproject.weebly.com/>

III

El campo de batalla contemporáneo entre bots y minions de la guerra mediática es un reflejo directo de las dificultades iniciales que las industrias culturales enfrentaron al intentar lucrar vía este NUEVO mundo del Internet —especialmente a través de la piratería. Fueron los canales nuevos los que principalmente lucharon contra el fenómeno de la descentralización, mientras las redes sociales prometían ser una manera efectiva para (re)organizar a la gente sin necesidad de consultar medios de opinión. Cuando aún no se establecía el primer monopolio de plataformas billonarias, que actualmente atraen el mayor tráfico del Internet, surgieron canales nuevos que intentaron posicionarse como árbitros de la verdad, luchando contra el enemigo de verdades piratas no verificadas, las fake news. [5] Pero la marea ya había cambiado nuestra relación con la realidad para que sus esfuerzos realmente dieran frutos.

A diferencia de otros gigantes mediáticos, que rediseñaron exitosamente la manera en la que consumimos arte y ficción hoy en día (Sp*tify, N*tflix, Am*zon, por mencionar algunos), los conglomerados de noticias aún tienen que superar las micro-realidades de las comunidades en Internet —lxs usuarixs que se unen para arruinar los sesgos de confirmación de lxs demás, y que frecuentemente se organizan como militantes de las verdades ‘ready-made’ conspirando contra narrativas establecidas. [6] Mientras que los medios más grandes utilizaban su alcance y sobreabundancia de data a favor de sus agendas y narrativas, lxs usuarixs inconformes comenzaron el mismo proceso de manera similar, sólo que utilizaron imágenes enterradas bajo las verdades impuestas. Más que piratear noticias, estas guerrillas de la ficción empoderan sus perspectivas del mundo con verdades ‘ready-made’ extraídas de la base de datos. Con el fin de utilizar como armas dicha data, lxs agentes inyectan especulación en memes, testimonios e imágenes re-contextualizadas para verse involucradxs en una guerra cultural, del tipo Gramsciana, por los recursos de la imaginación de lxs usuarixs del Internet. La contra-producción de información funciona como medio de resistencia y propagación de ideologías, donde la lucha entre las verdades anti-hegemónicas y establecidas está constantemente colonizando y descolonizando los paisajes digitales y sus imaginarios políticos adjuntos.

De cierta forma, los ready-mades de Duchamp se asemejan al fenómeno de las fake news: ambas siendo montajes radicales de comodidades (objetos y data) que cuestionan de manera explícita a la imposición hegemónica de la realidad. Dicha coyuntura podría sonar a que las verdades ‘ready-made’ son armas revolucionarias efectivas, pero, al igual que en el mundo físico, lxs militantxs digitales a menudo (y fácilmente) se ven cooptadxs por mayores esquemas; trátese de singularidades algorítmicas, disturbios corporativos o blanqueo político. [7] Lo mismo se percibe al ver cómo envejecieron los ready-mades de Duchamp, convirtiéndose en un canon y una representación de lo inalcanzable que es el mundo del arte.

Las guerrillas digitales —de bots humanxs o algorítmicos— a menudo diseñan y enmarcan información con el objetivo de competir en cuestión de métricas de “éxito” y productividad dentro de las redes sociales (likes, shares, suscripciones) que, en retorno, atestan a la verdad sobre una opinión, hecho editado o perspectiva a sus observantes. El valor del diseño sobre los hechos siempre ha estado a favor de la guerra como lo argumenta Susan Sontag en su libro Regarding the Pain of Others [8] y que actualmente se demuestra por el hecho de que las redes sociales no curan su contenido con base en la legitimidad o veracidad, sino que muestran los medios de interacción más esperados en función de la popularidad. Sin embargo, este aspecto ahora se ha permeado en la mayor parte de nuestra experiencia en la web: desde anuncios spam sobre cómo obtener un pito más grande, a fotografías de incendios forestales de hace diez años, pasando por burlas sobre los tuits presidenciales. Lo que las fake news evidencian es cómo las imágenes se crean para luchar, no por la verdad sobre la realidad, sino por nuestra atención al volverlas más claras, sensuales, peligrosas, coloridas: portales engañosos a mundos aún más nuevos, o recordatorios de aquellos que ya tenemos en nuestras mentes. Al igual que el nombre de las Fine Arts, o en el caso de los juegos el título de AAA, dentro del nombre fake news reside un arma de homogeneización que necesita ser discutida a favor de un plan de coexistencia a largo plazo dentro de un mundo en constante fragmentación (visual).

Una antigua patente para la manipulación del sistema nervioso por campos electromagnéticos desde monitores. Imagen cortesía del autor

IV

Este texto no está a favor de la desinformación de ninguna manera, es más bien una propuesta sobre un nuevo acercamiento hacia las pantallas que mantienen los enlaces necesarios entre sí. Ya que, escondidas detrás de la luz que toca nuestros ojos, las imágenes brillantes de las pantallas digitales también eligen sus sombras en forma de anuncios y especulación. La verificación digital de hechos e información apenas puede cubrir el impacto de la desinformación en usuarixs sesgadxs: y si lo hiciera, funcionaría como herramienta de homogeneización, tal como las bases de usuarixs rechazan a ciertos medios que van en contra de sus creencias. Dentro de las verdades ‘ready-made’ se encuentra una estrategia de juego con las imágenes, en lugar de utilizarlas como armamentos. Es una manera de conectar, no de extraer ni instrumentalizar.

Lo que estos tiempos contemporáneos han logrado escenificar exitosamente es un mundo donde lxs humanxs son mediadxs a través de pantallas, donde la soberanía y la realidad son discutidas a través de un medio cuya luz apunta hacia nuestros deseos individuales, en vez de conectarnos como comunidad —escenario donde reina el desacuerdo. No obstante, tal vez podamos comenzar a repensar este paradigma fácilmente; una concordancia histórica y social que remonte a generaciones, creencias y culturas, sin importar sus estándares tecnológicos occidentales o la complejidad de su folklore. Una estrategia iconoclasta vestida de centrismo ocular.

La creencia que todx usuarix de la red asume ser verdad al mirar una pantalla digital, como al leer este texto, por ejemplo, es la idea de que una imagen es real. Con esto en mente, podemos presumir que para trazarnos nuevos links de coexistencia necesitamos entender la soberanía de las imágenes como seres cambiantes, no como recursos. Necesitamos enlazarnos a las imágenes para nutrir conexiones alternativas entre nosotrxs, dentro de las múltiples dimensiones que habitamos.

Lucas Lugarinho (Río de Janeiro, 1992) Estudió la licenciatura en Pintura en la Escola de Belas Artes de Río de Janeiro (2010 – 2016), habiendo estudiado el año escolar de 2014 en la Universidad Nacional Autónoma de México, México. Es ex-alumno de Telecomunicaciones (2007 – 2009), por el CEFET-RJ, y esa experiencia influye de manera significativa en su práctica artística, contextualizando su interés en la computación a escala global y los temas de la cultura digital, la virtualización de la naturaleza y el mutualismo entre las imágenes y la humanidad.

Notas

[1] Los algoritmos sesgados son la base del aprendizaje automático. Son lo que impulsa a las máquinas inteligentes a tomar decisiones examinando los diferentes tipos de sesgos que se encuentran más comúnmente en los conjuntos de datos al identificar, por ejemplo, datos históricos o estereotipos que ya existen en la sociedad según la hegemonía.

[2] Los deepfakes son medios sintéticos que reemplazan la semejanza de una persona en una imagen o video original con el de otra persona, con fines engañosos o de entretenimiento. El término deepfake fue acuñado en 2017 por usuarios de reddit en subforos dedicados a implementar redes neuronales para mejorar los algoritmos de visión por computadora capaces de generar contenido pornográfico a semejanza de personas famosas, a manera de memes u otras formas de medios de entretenimiento. La naturaleza altamente engañosa de esta tecnología plantea un desafío para el futuro de la comunicación digital y la política.

[3] Steven Poole, “Before Trump: the real history of fake news”, en The Guardian, 2 de noviembre de 2019 <https://www.theguardian.com/books/2019/nov/22/factitious-taradiddle-dictionary-real-history-fake-news>.

[4] La Electronic Entertainment Expo, también conocida como E3, es un evento mundial de tres días de duración en la ciudad de Los Ángeles para juegos de computadora y video y productos relacionados.

[5] La explotación de la sobreabundancia de datos es una táctica ampliamente utilizada por las milicias de las verdades ‘ready-made’, pero esta estrategia ha sido utilizada por los monopolios de los medios durante mucho tiempo: los conglomerados de noticias acaban de rediseñar las tecnologías antipiratería en algoritmos de ingeniería social. La industria de la música, por ejemplo, ha sido pionera en el método de envenenamiento de contenido, la práctica de compartir datos corruptos en servidores, con la esperanza de que lxs usuarixs se desanimen a piratear archivos contaminando sus redes para luego predicar sobre la naturaleza insegura de estos ciberespacios. Hoy en día, los canales de noticias tienen un gran interés en temas como la regulación de noticias falsas y todos los escándalos relacionados con la desinformación en la web, ya que las redes sociales se convirtieron para los portales de noticias en lo que Piratebay es para las industrias del entretenimiento. <http://thepiratebook.net/>.

[6] Es importante tener en cuenta que los sesgos de confirmación también son responsables de la idea de que sólo la “otredad” maneja tácticas tales como información falsa. Por ejemplo, la narrativa de la Tierra plana que establece que las imágenes del espacio exterior son creadas por programas espaciales gubernamentales como la NASA. Pero a pesar de la inclinación política o religiosa, las milicias de la verdad operan dentro de una amplia gama de grupos socio-virtuales, incluidos aquellos a los que lx lectorx podría sentirse afiliadx: desde adolescentes adoctrinadxs por extremistas de la ultraderecha que fungen como streamers de Twitch, hasta clubes online de libros comunistas izquierdistas. Creo que la pregunta radica más en una praxis de confirmación en torno a la información sesgada que a un dilema moral o ético. Por ejemplo, estas dos noticias sesgadas de opiniones políticas de izquierda y derecha en Brasil: fake news del ala derecha <https://www.boatos.org/politica/mamadeira-kit-gay-distribuida-em-creches.html> y fake news de la izquierda <https://catracalivre.com.br/cidadania/mutilacao-suastica-em-jovem-por-fas-de-bolsonaro-e-fake-news/>

[7] Vale la pena mencionar que, en las vastas redes que filtran verdades ‘ready-made’, existen numerosos agentes, tanto físicos como virtuales, que tienen roles cruciales en la difusión (incorrecta) de la información. Lo que se remonta a las bromas de verdad de 4chan sobre las páginas de Wikipedia, se ha convertido en una subindustria propia, con casos como el escándalo electoral de Cambridge Analytica. Las organizaciones especializadas en datos agrícolas para difundir verdades ‘ready-made’ han actualizado las viejas estrategias de publicidad política para definir mejor sus objetivos, pero es importante notar el papel continuo de las bases de usuarixs más jóvenes y mayores en estos esquemas, principalmente debido al desconocimineto de ambos grupos sobre cómo la tecnología que utilizan cosecha su imaginación. Ver más <https://www.bbc.com/news/technology-46823739> y <https://www.expressnews.com/opinion/commentary/article/Cepeda-Young-people-are-ill-equipped-to-navigate-14966318.php>

[8] Ver más en Susan Sontag, Regarding the Pain of Others (Nueva York: Picador, 2003), p.43: “No debería sorprender entonces que muchas imágenes canónicas de las primeras fotografías bélicas hayan resultado trucadas o que sus objetos hayan sido amañados. Después de llegar al muy bombardeado valle en las proximidades de Sebastopol en un cuarto oscuro tirado por caballos, Fenton hizo dos exposiciones desde idéntica posición del trípode: en la primera versión de la célebre fotografía que tituló «El valle de la sombra de la muerte» (a pesar del título, la Brigada Ligera no emprendió su fracasada carga en este paraje), las balas de cañón se acumulan en el suelo a la izquierda del camino, pero antes de hacer la segunda foto —la que siempre se reproduce— vigiló que las balas de cañón se dispersaran sobre el camino mismo. Una de las fotos de un sitio desolado donde en efecto había habido muchos muertos, la imagen que hizo Beato del devastado palacio Sikandarbagh, supuso un arreglo mucho más minucioso de su asunto, y fue una de las primeras representaciones* fotográficas de lo horrendo en la guerra.”

Este texto es uno de los seleccionados a través de nuestra convocatoria.

El texto fue traducido del inglés al español por Irene Trejo.

Tags: , , , , , , , , ,

MARGINALIA #40

I Want That Bag

Ancla 637. Con Hugo Rivera-Scott y otros

Metteur-en-scène