Lo que hay de cierto en “El Mentalista”

Con la 6ª temporada ya en antena en Estados Unidos, a todos os debe sonar la serie El Mentalista. En síntesis, es una serie de “resolver el misterio”, en la que el CBI (la división californiana del FBI, aquí traducida como “brigada criminal”) cuenta con la ayuda de un mentalista y sus sorprendentes habilidades, que no poderes. Son capítulos autoconclusivos, aunque existe una trama de fondo, la búsqueda de un asesino, por lo que conviene seguirla en orden.

El protagonista de la serie había sido un mentalista bastante mediático, y es el primero en admitir que todo se trata de un fraude. El elemento sobrenatural, por tanto, está descartado. Se trata de un personaje con increíbles dotes deductivas, al igual que ocurre con otras series como House, Psych, Miénteme (Lie to me) o la reciente reimaginación de Sherlock Holmes, Sherlock.

Curiosamente, podemos considerar a Sherlock Holmes como uno de los primeros mentalistas, a pesar de no se trataba de ningún médium ni nada por el estilo… y de que estamos hablando de un personaje de ficción. Sin embargo, Sherlock Holmes tenía la capacidad de decudir comportamientos, rasgos de personalidad y ciertos hechos simplemente observando la escena del crimen y a los sujetos involucrados. La diferencia entre Holmes y el común de los mortales, era que lograba recoger información del más mínimo detalle, algo que sucede en las series que he mencionado antes. De hecho, el apellido House es una variante de Holmes, y su amigo Wilson viene a ser el Dr. Watson.

En el caso de El Mentalista, más allá de la dramatización necesaria para que la serie funcione, el personaje de Patrick Jane menciona algunas técnicas reales utilizadas en psicología. Porque al fin y al cabo el mentalismo tiene mucho de psicología, y el resto es teatralidad.

Una técnica que se menciona con cierta frecuencia es el palacio de la memoria. Se trata de un recurso nemotécnico que le permite a Patrick Jane memorizar cualquier cosa que necesite. El resultado es que Jane parece tener una memoria prodigiosa, más allá de las capacidades humanas. Como describe en la serie, el palacio (o los palacios) de la memoria consiste en asociar los recuerdos que se desean conservar con un espacio físico ya existente que se conozca muy bien (las habitaciones de una casa, un lugar de trabajo…) e ir creando pequeñas historias que involucren lo que se quiere recordar. De este modo, se pueden recuperar esos recuerdos fácilmente con sólo recorrer mentalmente ese sitio. En realidad para esta técnica no es necesario un entorno que ya exista, sino que pueden inventarse habitaciones y “amueblarlas” mentalmente. A pesar de que es un método antiguo y en opinión de algunos obsoleto o menos eficaz que sistemas más modernos, su aura encaja muy bien con el personaje.

Otra técnica es la lectura en frío. Jane se refiere a ella en el episodio 100 (el especial que cuenta el origen de su colaboración con el CBI) y no suele mencionarla mucho más, pero es la que utiliza continuamente. La lectura en frío es en realidad una combinación de varias técnicas de observación que permiten extraer mucha información de la otra persona (p.ej., un sospechoso), de forma que parece que le haya leído la mente. Las técnicas son muchas y variadas, pero en general consisten en averiguar determinados detalles a través de lo que transmite el sujeto con su lenguaje corporal, sus gestos, forma de vestir, sus rasgos faciales (análisis fisiognómico) etc. A partir de ahí se pasaría a una lectura en caliente, basándose en las reacciones de la persona al interactuar con ella (asombro, perplejidad, enfado, etc.).

En la serie las deducciones del protagonista son muy certeras. Los adivinos de la tele no son tan precisos como parece. Pensemos por ejemplo en el caso de Anne Germain. Se realizan afirmaciones genéricas y ambiguas pero que el sujeto reconoce como no sólo como verdaderas sino que cree que le ha descrito con exactitud. Pero en realidad, todo ha sido fruto de la memoria selectiva del sujeto (nos quedamos con lo que queremos escuchar), del efecto Forer, y de algún que otro engaño añadido (investigación previa de los clientes y demás).

Así que en resumen, El Mentalista es una serie de ficción y como exagera las situaciaciones. Sin embargo, la construcción del personaje tiene cierta base real. No es necesario que su creador, Bruno Heller, sea un gran conocedor del mundillo. Un poco de búsqueda en Google y algo de documentación pueden haber bastado para incluir estas técnicas con cierta verosimilitud. Independientemente de si se puede llegar al nivel de “clarividencia” de Patrick Jane en la vida real, lo cierto es que sus guionistas consiguen una serie de lo más entretenida.

La demanda inelástica en las Industrias Culturales

Ya he hablado en otras ocasiones de la complejidad de la producción y consumo e las Industrias Culturales, (ejemplo, ejemplo 2) debido fundamentalmente a que sus productos están basados en información y no son objetos tangibles (sólo lo son sus soportes físicos cuando los hay).

Todas las Industrias Cultuales comparten en mayor o menor medida una serie de características. Una de ellas es la de tener una demanda no sólo impredecible (por mucha promo que se haga siempe habrá fracasos comerciales), sino también inelástica.

El concepto de elasticidad de la demanda alude a cómo repercute una variación en el precio de un producto sobre su demanda. Si bajar o subir el precio de algo hace que su consumo aumente o disminuya sensiblemente, diremos que el producto tiene una demanda elástica. Si por el contrario no le afecta, hablamos de demanda inelástica.

Un ejemplo muy tonto. Si tenéis que usar el coche para ir a trabajar todos los días, la subida de precios de la gasolina no hará que llenéis menos el depósito. Podréis limitar el consumo evitando usar el coche para otros traslados (viajes, compas), pero necesitáis usarlo para ir a trabajar. Sólo ahorraréis en consumo recurriendo a coches compartidos o transporte público. Otra buena comparativa es el tabaco frente al alcohol. El fumador habitual tiene un hábito de consumo que no siempre es fácil de reducir a pesar de las subidas de precios. En cambio, el bebedor ocasional (no alcohólico) puede variar su consumo en función de si las copas le cuestan más o menos.

Vale, eso es cuando hablamos de reducir la demanda. ¿Y al contrario? Los productos culturales, al no ser de primera necesidad y ocupar fundamentalmente el tiempo de ocio, son muy sensibles al aumento de precios. Lo hemos visto estos años con las repetidas subidas del IVA. Hay cosas más importantes que ir al cine o comprar un disco. Pero si las entradas de cine, los libros, los discos, fuesen más baratos ¿aumentaría su consumo?

La teoría dice que no demasiado. Al menos, existiría un tope que no depende del dinero del consumidor sino de su tiempo. A día de hoy, un descenso en los precios, que son abusivos, sí que lograrían un mayor consumo. El caso más claro es el del cine. Si las entradas costasen 5€, en vez de los 9 ó 10 que ya valen (3D aparte), las salas se llenarían. Sin embargo, y es a esto a lo que se refiere la teoría, es posible que todos nos animásemos a ir una o incluso dos veces a la semana al cine, y que por tanto nos arriesgaríamos a darle una oportunidad a largometrajes que nos pican la curiosidad pero sobre los que tenemos reservas, pero tendríamos un tope debido a nuestro tiempo. ¿Puede una persona que trabaje en horario de oficina ir un par de días laborables a la semana al cine de forma indefinida? ¿Y si tiene horario comercial?

Cada industria tiene su forma de monetizar sus productos y por lo tanto la variación de precios le afectará de una forma u otra. Aquí conviene diferenciar consumo en el sentido de adquisición (comprar un disco o un libro) de consumo en el sentido de uso (escuchar ese disco, leer ese libro). Porque ya sabemos lo que pasa con el coste cero. ¿Recordáis la época de descargar discografías enteras por el eMule? Os doy un par de minutos para que miréis en vuestro disco duro la cantidad de películas y discos que estarían acumulando polvo si fuesen soportes físicos.

La industria del videojuego, no obstante, está ensayando las consecuencias de reducir precios. Hay muchas partes implicadas: fabricantes de hardware, licenciatarios (ese FIFA…), third parties, distribuidores… Pero cuentan con la ventaja de una distribución digital algo más consolidada. Y de momento parece que les está yendo muy bien. Volvemos al tema del diógenes digital: ¿el jugador disfruta de todos esos juegos o no tiene tiempo de exprimirles todo el jugo? Pero ése es un tema muy difícil de investigar.

Estamos ante un concepto más difícil de lo que parece. Cada industria tiene unas estrategias diferentes, y los actores principales (los grandes grupos multimedia) tienen muchos intereses en juego.

El bulo del WhatsApp de pago

NOTA (21/03/2013): este artículo habla sobre el meme que circuló a finales de 2012 y que se puede ver en la imagen. Actualmente, WhatsApp está enviando notificaciones a sus usuarios solicitando el pago por la renovación de la licencia durante un año (en función de la plataforma que se esté usando). Estas notificaciones llegan a través del propio servicio de WhatsApp. A pesar de que en efecto sí se está cobrando por utilizar este servicio, la intención de este artículo es criticar la falta de criterio a la hora de difundir rumores infundados “por si acaso es verdad”.

Seguramente el pasado miércoles te llegaría este mensaje de WhatsApp diciendo que lo iban a convertir en un servicio de pago:

Meme del WhatsApp

Con esa redacción tan cuidada normal que haya colado

TRANSCRIPCIÓN LITERAL DEL MENSAJE: Gente ahora si que si. Whatsapp va a pasar a ser de pago de manera inminente. Si te fijas en todos tus contactos pone que esta UNAVAILABLE. El sistema se esta preparando para pasar a ser de pago los que no reenvien este mensaje dando su cococonsentimiento explicito. Date prisa porque solo podras beneficiarte de esto reenviando este mensaje a 20 personas antes del viernes 30 de noviembre.

Es posible que durante un momento sospechases que podría ser algún bulo como el de Messenger, ése que estuviste reenviando hasta la saciedad “por si las moscas”, aunque ahora que por fin lo fusionan con Skype te la trae al fresco (es más, lo mismo  ni te has enterado). Pero entonces miraste tu lista de contactos y viste con asombro que en todos ellos se pordía leer: error: Status UNAVAILABLE. ¡Ahí tenías las pruebas! ¡Esta vez sí que era cierto! Tenías que reenviar el mensaje a 20 contactos o si no empezarías a pagar por WhatsApp. Habías oído hablar de otras aplicaciones como Line que servían para lo mismo, pero tú ya estás acostumbrado a WhatsApp, a pesar de la seguridad nula que tiene, y al fin y al cabo es la aplicación que usan todos tus amigos.

Porque al fin y al cabo eso es lo que habías deducido del  mensaje que te llegó: que si no lo reenviabas a 20 contactos te empezarían a cobrar. Lo leíste por encima y no reparaste en la bochornosa ortografía que tiene el mensaje, sin una sola tilde y con una puntuación (para los de la ESO: un uso de los puntos y las comas) que deja mucho que desear. O peor aún, la redacción del mensaje no te resultó tan sospechosa proque tú mismo escribes así cuando se trata de algo serio (y no puedes poner abreviaturas ni emoticonos). Quizá te extrañó que usase la palabra “cococonsentimiento“, pero imaginaste que un tartamudo habría dictado el mensaje y se atascó ahí. Además, toda tu atención fue a la palabra “explícito” que venía después, y querías asegurarte de comprender bien lo que significaba.

Tampoco te resultó extraño que WhatsApp no te avisara a través de la App Store, Play Store, o por un correo electrónico DESDE SU CUENTA OFICIAL. Al fin y al cabo, Messenger hacía lo mismo para avisarte de que cerraba y nadie consiguió convencerte de que era una cochina mentira.

Sabes que los medios de comunicación mienten como bellacos y no hacen más que manipular. Otra cosa es que además te molestes en comprobar la veracidad de ciertas noticias. Tú ya estás bastante ocupado entrando en Tuenti para chatear con tus amigas. Y además, los medios están manipulados, pero un mensaje anónimo reenviado cientos de veces fijo que es verdad. ¿Qué ganarían con mentir? Así que no sólo no viste el mensaje en Twitter de WhatsApp (y esto te lo dejo pasar, en serio, porque hay un huevo de cuentas de WhatsApp) sino que tampoco viste después los artículos desmintiendo la noticia. Si se trata de una mentira, ya te avisaría algún amigo. Tú por si acaso ya reenviaste los 20 mensajes.

Lo más irónico de todo esto es que WhatsApp puede cobrarte dependiendo del móvil donde lo tengas instalado. Qué cosas ¿verdad?

En fin, no te interrumpo más, que te veo muy ocupado con el Messenger.

La libertad del mando a distancia ¿Realmente vemos lo que queremos?

Poner a parir un determinado programa de televisión o a todo un canal es una práctica muy habitual, tanto dentro como fuera de Twitter. La semana pasada, el nivel de bilis arrojado contra Telecinco volvió a subir por encima de la media. Posiblemente se debiera a la demanda interpuesta por la cadena de Vasile contra Pablo Herreros, en la que le acusan de amenazas y coacciones.

(ACTUALIZACIÓN: Telecinco ha retirado la demanda contra Pablo Herreros.)

Entre tanto comentario criticando la Cadena Mierder llegó un mensaje a mi muro de Twitter (Retweet mediante) que decía: “a la gente que se queja tanto de los contenidos de Telecinco… ¿Os obligan a verlo? Pues ya está!”. Y como yo tenía el día tonto e intuí que se trataba de un argumento que ya he oído muchas veces acerca de que si no te gusta algo basta con cambiar de canal, respondí con un (no muy elegante) “la falacia de la libertad que otorga el mando a distancia…”. Hubo un par de comentarios más por parte de los tres usuarios implicados en la conversación y la cosa no llegó a más (yo no soy como las tuitstars que se dedican a hacer de rabiar a los políticos). Twitter, con sus 140 caracteres, no es un buen formato para entrar en profundidad sobre ciertos temas.

En cualquier caso, al hilo de ese comentario, recordé los argumentos típicos que se suelen hacer para justificar que si la telebasura se ve tanto por algo será, que sólo hace falta cambiar de canal, y que las cadenas privadas de televisión son empresas y pueden programar lo que crean conveniente para obtener audiencia. El propósito de esta entrada es el de rebatir estos argumentos.

En primer lugar, me gustaría diferenciar entre pull media y push media, una distinción muy parecida a la que se hace en Industrias Culturales entre industrias editoriales y modelo de flujo. La televisión es el ejemplo típico de push media: emite continuamente y “encuentra” al espectador. Esto, unido a la alta penetración del medio televisivo en los hogares, hace que determinados programas tengan puedan ser vistos por mucha más gente que cualquier película, libro, obra de teatro, canción, etc. Obviamente, esta separación no siempre está clara. Las películas pueden verse en la tele, las canciones oírse e la radio…

Pero en definitiva, la televisión tiene una influencia en la sociedad a priori mucho más alta que otros medios, incluido Internet (insisto: a priori). Esto no significa que las cadenas estén obligadas a emitir contenidos asépticos y políticamente correctos todo el rato. Está bien (incluso es necesario) que los canales emitan programas críticos o en contra de lo establecido. Pero al menos deberían tener en cuenta esta situación ventajosa, incluso si se trata de cadenas privadas.

Cuando se critican determinados contenidos suele haber comentarios del tipo “pues que cambien de canal”, “si tanta gente lo ve será por algo”, y similares. Claro, claro, para que se deje de emitir Gandía shore (o “Cualquier otro sitio shore”) basta conque la gente deje de verlo. Y para cambiar la situación de este país basta con que la gente vote a otro partido políticos. Pero si dejamos el país de las hadas y volvemos al mundo real, las cosas no son tan sencillas.

Detrás de los argumentos del tipo “la gente ve lo que le interesa” subyace la Teoría de los Usosy Gratificaciones (TUG). Esta teoría se centra en las audiencias para tratar de comprender los medios de comunicación, y afirma que el espectador busca activamente contenidos que le interesen y que satisfagan sus necesidades (sí, ya sé que ahora todos vivís solos o con vuestra pareja, y que no veis la tele, sólo la usáis para enchufarle el disco multimedia y ver las series que os bajáis de Internet). Frente a otras aproximaciones, más críticas, que intentan analizar los efectos de los medios en la audiencia, la TUG intenta averiguar qué hace la audiencia con los medios.

Esta aproximación individualista se basa en una libertad a priori del espectador, al que además considera racional y bien informado. En base a esa libertad, el espectador tendría la capacidada de “negociar” con el medio televisivo, pues su demanda de contenidos influiría en la programación (cancelación de los programas que se ven poco, renovación de los que tienen éxito).

Las críticas a esta teoría, que son muchas, empiezan por esa presunción de que el espectador es racional y está bien informado. ¿Está bien informado a priori el espectador cuando ve reportajes sobre las bondades de la homeopatía, las terapias alternativas y demás discursos magufos? ¿O cuando ve reportajes presuntamente informativos que en realidad son publirreportajes?

La otra gran crítica a la TUG es que ignora la naturaleza social del sujeto. El contexto social, incluyendo variables como el país, es un complejo mecanismo que nos presiona para ver un canal u otro. Puede ser el corrillo de compañeros de trabajo que comenta un programa en la máquina del café, pueden ser los comentarios hechos en Twitter (positivos o negativos)… Los cebos de muchos programas (Sálvame es el ejemplo más conocido) están por algo. Incluso algo tan tonto como el número de canal en nuestro televisor puede influir a la hora de generar audiencia. No es casualidad que varios canales como Neox, Nova o la MTV hiciesen pequeñas campañas para posicionarse en un determinado lugar en la numeración de nuestro mando a distancia.

En definitiva, el que no quiera ver Telecinco es muy libre de cambiar de canal o de apagar el televisor. Pero no vivimos en burbujas aisladas, ni en cabañas perdidas en el monte (al menos, la mayoría de nosotros no). Los programas que vemos dependen de muchos factores, incluida socialización con los demás. La audiencia, por desgracia, no siempre es sabia.

Jóvenes y redes sociales. Valores y miedos heredados de las culturas de Internet

Es el título de un artículo que ha salido publicado en el último número de la revista TELOS, una de las revistas más importantes en el panorama académico. En este artículo hablo sobre los temores más habituales que existen cuando se habla de jóvenes usando redes sociales, y qué relación tienen con una serie de estereotipos creados a lo largo de la historia de Internet por cada una de las culturas imperantes que ha tenido la red.

Se trata de un artículo largo: 11 páginas, incluidas bibliografía, notas al pie, tablas y gráficos. Si os interesan los cambios que las nuevas tecnologías están produciendo en nuestra forma de relacionarnos deberíais al menos echarle un vistazo. Y si os dedicaáis a la investigación o la divulgación en este campo, siempre os puede servir como referencia bibliográfica (la revista TELOS está inscrita en los principales índices de publicaciones científicas).

Os dejo con el abstract del artículo:

Al hablar de jóvenes y redes sociales, se asocian frecuentemente una serie de peligros y problemas relativos a la privacidad o los riesgos de relacionarse con desconocidos, en parte heredados de los estereotipos sobre culturas anteriores imperantes en Internet. El presente artículo aborda esta herencia y el interrogante de hasta qué punto se cumplen estos temores.

Podéis leer el artículo completo aquí.

La revista TELOS se edita bajo una licencia Creative Commons. Podéis reproducir todo o parte del artículo siempre que mencionéis la fuente original: revista TELOS, nº 93 (Octubre-Diciembre 2012), autor del artículo, etc.. Y no, el autor no es Tahúr Manco. Mirad el artículo para ver el autor. Y por cierto, es Martínez, no Martín.

¿Qué fue del P2P?

No hace muchos años, los sistemas peer to peer estaban en el ojo del huracán y focalizaban los esfuerzos de las industrias culturales (especialmente de la industria discográfica) en su lucha contra esa “piratería”, palabra que no siempre estaba bien utilizada. Todo empezó en 1.999 con Napster, que hizo poner el grito en el cielo a la RIAA y a Metallica, valga la redundancia eso de que Metallica puso el grito en el cielo. Luego siguieron Gnutella, Kazaa, y después los clientes del protocolo BitTorrent y el famoso eMule.

Con Napster la victoria fue relativamente fácil, puesto que era un sistema centralizado, y al clausurar sus servidores se interrumpió el funcionamiento del programa. Pero los que vinieron después tenían estructuras más complejas, con varios servidores repartidos a lo largo del mundo, o incluso con arquitecturas distribuidas que no necesitaban servidores. El peer to peer se convirtió en una Hidra de muchas cabezas, y por cada una que perdía, le salían dos. Además, dependiendo de cada país las leyes variaban y los mismos argumentos no se podían trasladar sin más de un territorio a otro.

Topologías de Red

Topologías de Red según Paul Baran. La termonología puede variar en otros autores.

(Una aclaración: la definición de peer to peer es muy amplia y no depende sólo de los rasgos que pueda tener un sistema, como su arquitectura descentralizada o no. Aplicaciones como el correo electrónico o la mensajería instantánea podrían considerarse peer to peer. Aquí nos estamos refiriendo a los sistemas de intercambio de archivos que todos conocemos.)

Los autores más entusiastas aseveran que el peer to peer supuso un retorno a la concepción inicial de Internet. Las conexiones entre pares son horizontales, frente al modelo vertical (centralizado y también jerárquico) servidor-cliente de la Web. Hay que recordar que Napster surge en pleno auge de la Web 1.0, y faltaban un par de años para la crisis de las puntocom. Algunos sistemas peer to peer, como SETI@home (aunque curiosamente es un sistema centralizado) se usan para repartir entre los ordenadores de los participantes las tareas de proceso de información, del mismo modo que en sus orígenes la red perseguía como objetivo repartir los procesos de computación. Los sistemas peer to peer, basados en arquitecturas descentralizadas y distribuidas, son fácilmente ampliables, ya que es muy sencillo añadir un nuevo nodo a la red. Sin embargo, la escalabilidad (la propiedad de las redes según la cual una mayor cantidad de nodos redunda en un mejor funcionamiento de la red) de estos sistemas era más complicada de evaluar. Aún así, las arquitecturas descentralizadas aparentemente eran más propicias para la escalabilidad. Y si no, recordad los años dorados del eMule.

A partir de los años 2007 y 2008, el uso de sistemas peer to peer para bajarse canciones y películas comenzó a descender. Y no fue porque las industrias culturales hubiesen ganado su legendaria cruzada contra los “piratas”. Simplemente, por fin había conexiones lo suficientemente rápidas como para que las esperas por una descarga directa no fueran eternas y para poder ver una película en streaming sin cortes, y no de los publicitarios.

Con el cierre de Megaupload a principios de este año, parece que ha habido un leve resurgir del peer to peer. Pocas webs tienen un catálogo tan completo como lo tenía Megaupload, y las búsquedas en Google de sitios donde bajar contenido pueden ser todo un reto para los usuarios poco experimentados.

En conclusión, los sistemas peer to peer fueron formas de aprovechar el ancho de banda que había entonces de la mejor forma posible. Hoy en día pueden resultar poco prácticos para descargas aisladas o de contenidos raros de los que hay pocas fuentes. En cualquier caso, y sin llegar a los extremos de algunos autores, supusieron un modelo diferente al que se estaba imponiendo con la Web 1.0, que a la larga habría hecho de la web una suerte de nueva televisión. La Web 2.0 le debe un poquito de su existencia al peer to peer. Quizá no en cuestiones de tecnología, pero sí en su planteamiento, en el retorno del protagonismo del usuario.

*             *             *

Fuentes:

  • AIMC (Asociación para la Investigación de Medios de Comunicación).
  • Calvi, J.C. (2.008): ¿Reproducción de la cultura o cultura de la reproducción? Análisis económico, político y social de la distribución y el consumo de productos audiovisuales en Internet. Editorial Dykinson. Madrid. (NOTA: el propio autor pirateó su libro y es fácil encontrar una versión en PDF).
  • Minar, Nelson (2.001 y 2.002): Distribuited Systems Topologies (1 y 2)
  • Shirky, C. (2.000). What is P2P…and what isn`t?

5 libros que se publicaron en tomos separados

El soporte condiciona el contenido. Los CD’s tienen capacidad para 72 minutos de música, las cintas de casette podían ser de 60 o 90 minutos, los DVD’s dan para 120 minutos de vídeo más o menos (dependiendo de la resolución o la cantidad de idiomas disponibles), etcétera.

En cambio, los libros han tenido más versatilidad en ese aspecto. Las novelas pueden ir de las 200 a las 1.000 páginas, y el tamaño de la letra y de la propia página permite cierta versatilidad a la hora de editar un tomo. Sin embargo, a veces los textos son demasiado voluminosos y se decide separarlos en varios volúmenes. A continuación os dejo con 5 ejemplos de libros que aun tratándose de una sola obra, se editaron en dos o más tomos. Bueno, mejor dicho, 4+1:

El Señor de los Anillos (J.R.R. Tolkien, 1954-55)

Es quizás el caso más conocido. Tolkien concibió una secuela de El Hobbit que al final alcanzó unas dimensiones (en más de un sentido) inmensas. El profesor siempre concibió El Señor de los Anillos como una única novela. De hecho, su intención era publicar una bilogía no sólo compuesta por la célebre secuela, sino también por la ambiciosa precuela El Silmarilion.

Los editores sólo dieron luz verde a El Señor de los Anillos. Dado el volumen de la obra y la carestía de papel con motivo de la guerra, se decidió publicar la novela en tres tomos, de sobra conocidos, en un intervalo menor de 18 meses: La Comunidad del Anilo (junio 1954), Las Dos Torres (noviembre 1954) y El Retorno del Rey (Octubre 1955). Un año más tarde apareció una nueva edición de El Retorno del Rey que incluía los mapas y apéndices.

Tolkien nunca estuvo muy de acuerdo con esta decisión, ya que daba la impresión de que se trataba de una trilogía y él nunca planteo su obra de ese modo. Las únicas divisiones internas son las de los libros I a VI, de 10 capítulos cada uno, en los que se divide el relato. Sin embargo, la edición en tres volúmenes (e incluso cuatro, siendo el último los apéndices y mapas) se mantiene hoy en día a pesar de que podría publicarse en un solo tomo sin problemas. De hecho, existe una edición así, publicada en 1992 con motivo del centenario del nacimiento de Tolkien.

En España la novela de Tokien llegó a finales de los 70 de la mano de la editorial Minotauro (que aún hoy mantiene los derechos sobre las obras relacionadas con Tolkien). Los tres tomos se publicaron entre 1977 y 1980. En cuanto a El Silmalirion, hubo que esperar a la muerte de su autor (1973) para que su sobrino Christopher Tolkien retomara el proyecto y publicase la precuela en 1977.

Fuentes

La Regenta (Leopoldo Alas “Clarín”, 1884-85)

La primera novela de Clarín se editó en Barcelona en dos tomos a pesar del descontento del autor. No obstante, Leopoldo Alas iba enviando el borrador de cada capítulo conforme lo tenía acabado debido a las prisas del editor, por lo que no pudo revisar el texto final. De haber podido trabajar en mejores condiciones y con menos prisas, habría sido posible la revisión del borrador del texto y tal vez se hubieran acortado determinados pasajes. Con todo, es impresionante el trabajo de Clarín teniendo en cuenta que trabajaba “de memoria” (La Regenta apenas tiene fallos de guión en la trama).

La novela fue objeto de una furibunda oposición por parte de las instituciones bienpensantes de finales del siglo XIX, especialmente de la Iglesia. No fue hasta la segunda mitad del siglo XX cuando empezó a gozar del éxito y del estatus de clásico que hoy tiene. Actualmente se pueden encontrar ediciones de La Regenta en 1 y 2 tomos. Una de las más conocidas es la edición de Cátedra (editorial famosa por el color negro de sus portadas) en dos tomos debido a las abundantes notas a pie de página. Al fin y al cabo, las ediciones de Cátedra están orientadas a estudiantes.

Fuentes

  • La Regenta (prólogo de Ricardo Gullón). Alianza Editorial, 1966, Madrid. 25ª reimpresión, 1995.

Criptonomicón (Neal Stephenson, 1999)

A pesar de la envergadura de las novelas de Neal Stephenson, éstas se publican en un único volumen… en inglés. El problema viene al traducirlas. Los textos escritos en la lengua de Shakespeare aumentan su extensión cuando se convierten al castellano.

Eso es lo que ocurrió con Criptonomicón (del que ya hablé en el blog y posteriormente en El Ninho Naranja). Ediciones B, la editorial responsable de publicar la novela en España, dividió el original norteamericano empleando los mismos “puntos de corte” que habían utilizado nuestros vecinos galos para la edición francesa. Así, en 2002, y con muy pocos meses de intervalo entre ellos, aparecieron Criptonomicón I. El Código Enigma; Criptonomicón II. El Código Pontifex; y Criptonomicón III. El Código Aretusa. Los subtítulos aluden a diferentes códigos que se van empleando a lo largo del libro para codificar mensajes. La novela se conoce en España bajo el título genérico de Criptonomicón y se añade el número del volumen (1, 2 ó 3). La primera edición española del libro fue en la colección NOVA, y posteriormente se mantuvo el mismo criterio en otras colecciones como Zeta de Bolsillo o Byblos.

La división de Criptonomicón fue especialmente complicada, ya que el libro no tiene ningún tipo de estructura interna y sólo consta de un aluvión de capítulos que ni siquiera se molestan en empezar en la siguiente página. Las siguientes novelas de Stephenson si tuvieron una estructura interna que facilitase la división, puede que advertido por los editores (las ediciones en bolsillo en inglés también tuvieron que dividir el original). Azogue, la primera parte de la trilogía El ciclo barroco, consta de 3 libros dentro de la novela que facilitaron la edición en castellano en tres volúmenes.

Fuentes:

  • Criptonomicón 1. El Código Enigma (prólogo de Miquel Barceló). Ediciones B, 2004. Barcelona. Colección Byblos.

1Q84 (Haruki Murakami, 2009-2010)

El caso de 1Q84 es, cuanto menos, curioso. Murakami escribió una novela que se divide internamente en 3 libros de extensión similar. Sin embargo, en la mayoría de los países, 1Q84 se ha publicado en varios volúmenes aprovechando esta división interna.

En Japón, país originario de la obra, se ha editado en 3 tomos separados, que contienen los libros 1, 2, y 3 respectivamente. Pero ahí viene lo curioso: los dos primeros tomos salieron a la venta el mismo día, en mayo de 2009, mientras que el tercero vio la luz casi un año después, en abril de 2010. En Estados Unidos, por el contrario, el texto se publicó en un solo tomo de casi 1000 páginas en octubre de 2011.

La unidad argumental existente en los dos primeros libros, mayor que con respecto al libro 3, ha hecho que en varios países la novela se publique en dos tomos: el primero conteniendo los libros 1 y 2 (del que hablé hace poco en El Ninho Naranja) y el segundo con el libro 3. En el Reino Unido los dos tomos salieron a la venta en octubre de 2011 con una semana de diferencia. En España, Tusquets lanzó el primer tomo en febrero de 2011, y el segundo en octubre del mismo año.

Fuentes:

El Quijote (Miguel de Cervantes, 1605 y 1615)

Spain is different”, se suele decir. El quinto y último libro es el caso opuesto de lo que se ha venido contando aquí.

Miguel de Cervantes escribió una novela que parodiaba los libros de caballerías y que tituló El ingenioso hidalgo Don Quijote de La Mancha, que gozó de bastante éxito de ventas. Y como en el siglo XVII  el copyright no era lo que ahora, apareció una segunda parte escrita por Alonso Fernández de Avellaneda en 1614, y que se conoce popularmente como El Quijote de Avellaneda. A raíz de eso, Cervantes escribió una segunda parte “auténtica” que vería la luz en 1615, un año antes de su muerte, con el título de El ingenioso caballero Don Quijote de La Mancha. En ella, los dos protagonistas se dedican, entre otras cosas, a leer el Quijote apócrifo y ponerlo de vuelta y media, desmintiendo varios de los hechos que se narran, como el nombre de la mujer de Sancho Panza, que según la versión de Cervantes es Teresa Panza.

Con independencia de los tomos en los que se edite, El Quijote ha quedado guardado en la memoria colectiva como una única obra, a pesar de que fueron dos partes bien diferenciadas y escritas en circustancias distintas, publicadas con diez años de diferencia. Pueden encontrarse ediciones en uno, dos o más tomos. En 2005, con motivo del 4º centenario de la publicación de la primera parte, salió a la venta una edición de Alfaguara en un solo volumen.

Fuentes:

  • Cualquier libro de literatura de Bachillerato