Je ne sais plus comment m’y prendre pour redonner vie à ce blog.  Je ne l’oublie pas, non, simplement je le délaisse, et  il me manque, tout comme les conversations avec ses lecteurs. Alors je décide de le reprendre avec simplicité, comme « en passant », pour retrouver cette dose de désinvolture dont j’ai besoin pour bloguer.
Ce ne sont pas les sujets qui manquent. Ni le temps, parce que du temps on réussit toujours à en trouver pour les choses qui nous importent. La conversation, simplement, est retombée, dans mon petit salon virtuel, et il convient de la relancer doucement, en parlant de choses et d’autres, de manière agréable, pour vous donner envie de revenir boire une tasse de thé, et manger quelques gâteaux.
Alors je vous emmène à Séville,  aux rencontres franco-espagnoles autour du livre numérique organisées par l’Institut Français, et réunissant des professionnels français et espagnols du secteur de l’édition et du web,  des enseignants et des chercheurs, et des représentants du ministère de la culture de chacun des deux pays.
Comme ici, les discussions sur « ce qu’est un livre » vont bon train, et on fait grand cas des promesses du livre numérique – livre augmenté, livre qui tire parti du code, livre multimédia, livre partagé ( à propos j’ai raté Bob Stein au labo de l’édition, c’était bien ?) alors même que la première de ses promesses, rendre accessibles les livres à la fois  sous forme imprimée et sous forme numérique, pour que les lecteurs lisent de la manière qui leur convient, est encore en phase de mise en Å“uvre pour l’ensemble des acteurs.
Le bref exposé que j’ai fait en introduction de la table ronde à laquelle j’ai participé portait sur les métadonnées et l’interopérabilité, (j’ai le chic pour choisir des sujets sexy en diable, je sais), mais je trouve que ces deux aspects du livre numérique, lorsqu’ils  sont correctement compris, permettent d’entrer de plain pied  dans sa réalité, et dans ce qui distingue en profondeur cette réalité de celle du livre imprimé.
Il y a une grande difficulté  à  mener une transition. Cela nécessite de savoir regarder loin devant, pour comprendre ce qui advient, et qui est étranger à ce que l’on a pratiqué depuis parfois des années. Cela implique aussi de regarder en arrière, afin de ne pas priver ceux qui viendront après nous de ce dont nous avons bénéficié. Et, regardant à la fois loin devant tout en jetant un coup d’Å“il en arrière, il faut aussi aller vite, très vite, parce que ceux qui regardent seulement devant sans regarder jamais derrière vont très vite. Pas trop vite, non plus, si on ne veut pas aller seul, et si on veut aller loin, comme le dit souvent Clément Laberge,  qui poursuit à Québec une action dans l’édition qui respecte cette idée.
A propos de ceux qui vont vite, sans regarder en arrière, quelques nouvelles relevées cette semaine :
– Amazon va vendre de l’espace publicitaire sur l’écran d’accueil de sa tablette Fire.
– Amazon va permettre aux auteurs américains auto-édités de vendre des livres en POD en Europe.
– Les ventes  à l’étranger de livres numériques publiés par des des éditeurs américains ont augmenté de 333% (et représentent 6% des ventes à l’export de livres américains).
Pour tous les livres et les auteurs qui jamais n’auront les honneurs payants de l’écran d’accueil de la Fire, il est indispensable de continuer de travailler à des solutions alternatives, à des solutions locales, les plus nombreuses, les plus variées, les plus diverses, sans se laisser décourager. Parce que nous savons lire.
En guise de commentaire, et pour reprendre le dialogue: http://tendresapparences.wordpress.com/2012/05/20/lautre-ecrit-2/
D’où le grand intérêt des idées de Bob Stein — et des réalisations concrètes qu’il propose avec des outils comme CommentPress, Sophie et maintenant SocialBook ( voir http://www.youtube.com/watch?v=exHzOAe3DIA ) .
Prendre en compte les pratiques constatées des techniques numériques, et concevoir les modes de lecture du livre (fiction ou essai) comme ‘place’ : quel sera le premier éditeur généraliste à tenter une collection d’Å“uvres proposées au format SocialBook ? ou le premier éditeur scolaire à proposer une collection de ressources pédagogiques au format Sophie ?
Cela ne nécessite guère plus de risque et d’innovation que l’invention et le lancement, jadis, des ‘petits classiques’ annotés, ou, plus récemment, des ‘cahiers de vacances’, fondateurs du secteur parascolaire…
Je n’ai pas connaissance de véritable chaîne de numérisation chez des éditeurs. Ce dont vous voulez parler, Christian et vous, c’est peut-être de la confection de livres numériques à partir des fichiers numériques existant en amont de la fabrication papier. Ou bien ignorance de ma part ?
Sur la définition du livre, le critère le plus satisfaisant que j’aie trouvé jusqu’à présent est celle d’Eric Hellman: « The book is self-contained ».
http://bib.archive.org/2011/07/22/books-in-browsers-talk-abstracts/
Je pense que les éditeurs ont raison de travailler à la numérisation des livres « classiques » (je veux parler de ceux conçus pour le papier). Mais je m’étonne que, concernant la littérature de jeunesse, ils ne profitent pas de l’occasion pour proposer des versions abrégées. Avant de songer à ajouter à Jules Verne de l’image et du son, il me semble qu’il faudrait travailler à en fournir des versions « allégées ». J’évoque ce point dans l’article suivant (voir aussi les commentaires) > http://tendresapparences.wordpress.com/2008/01/01/a-propos-dun-chef-doeuvre-de-jules-verne/
Oui, les versions abrégées existent en France, mais elles sont rares (quelques titres à peine) et encore très volumineuses (je pense à celles proposées par L’école des loisirs, avec ses Misérables). Rien de comparable avec ce que l’on trouve en langue anglaise. Je rêve depuis longtemps d’une édition abrégée du Fantôme de l’opéra, de Gaston Leroux. Elle n’existe pas en en français. Mais j’ai dans ma bibliothèque un petit volume de l’Oxford Bookworms Library, intitulé The of the Opera, signé Jennifer Bassett et qui compte 56 pages, notes et catalogue inclus. Et voilà bien, en effet, un solide embrayeur de lecture–qui serait plus efficace encore si on le couplait avec une série de Moulins à paroles… comme celui-ci: http://www.voixhaute.net/2012/04/rousseau-j-j-deux-lecteurs.html :-)
Aucune chance de prouver validité ou invalidité du concept avec une expérience limitée à un ou deux titres et quelques mois (semaines) de ‘commercialisation’.
Il y a une masse critique, un temps non négligeable, à consacrer à l’expérience. On est loin de la validation par ‘numéro 0’ pratiquée en presse magazine, en fait pour mesurer le potentiel d’originalité d’une maquette imitant la plupart du temps servilement quelques ‘succès’ reconnus. L’extrapolation statistique du ‘potentiel’ économique, sur un domaine innovant, ne repose sur aucun historique…
Merci de votre réponse, Virginie, mais je posais la question de l’existence chez les éditeurs non de chaînes de production numérique mais de chaînes de numérisation, ie de conversion de l’analogique = papier au numérique. Ma participation à la mise en place de Persée, il y a un bout de temps maintenant, m’a montré que la numérisation d’un patrimoine imprimé n’était pas un mince affaire et demandait la mise en place de processus matériels et logiciels très spécifiques et lourds, très différents des processus nécessaires à produire du livre numérique à partir de fichiers numériques déjà existants en amont de la chaîne de production du livre papier. Et même ainsi, hors pdf, le résultat n’est pas satisfaisant sans une importante intervention humaine (voir les epub proposés par Internet Archive, bruts de numérisation et pour la plupart illisibles; ce n’est pas pour rien que la ressource principale pour le livre numérique ancien – epub ou mobi, je ne compte pas là le format pdf – reste le projet Gutenberg). Si je suis intervenu en commentaire chez Christian c’est à cause des phrases « Les éditeurs sont occupés à numériser les livres contenus dans nos bibliothèques » et « Les éditeurs s’emploient à numériser les livres anciens » qui ne me semblent pas décrire adéquatement la réalité ou du moins laisser dans l’ombre des acteurs importants. Voilà , pardonnez-moi si j’ergote!
Précision: je ne nie pas l’existence de chaînes de numérisation chez les éditeurs, je suis juste curieux à leur sujet et entre numérisation et production numérique, je voulais être sûr de bien comprendre votre réponse :-)
Amazon est à cheval. Nous sommes à poil.
Merci, Virginie, pour cette synthèse que je ne trouve qu’avec retard. J’ajouterais cependant un acteur dans la seconde catégorie: Google! D’ailleurs, si je ne me trompe pas, une bonne partie des livres numérisés mis dans Internet Archive proviennent de la numérisation Google. Votre classification a, pour moi au moins, le mérite de bien distinguer deux types de numérisation rétrospective: les numérisations de masse automatisées à base de scan et d’OCR (Google Books, Gallica…) et les numérisations avec intervention humaine, que ce soit en saisie directe ou en relecture de sortie d’OCR (Gutenberg…). La différence est de taille dans la mesure où sauf exceptions les résultats de la première ne se prêtent guère qu’à la lecture en format image (PDF vs EPUB ou mobi…).
Pour avoir un résumé de l’intervention de Bob Stein du 16 mai au Labo de l’Edition c’est ici : http://storify.com/labodeledition/rencontre-avec-bob-stein-fondateur-de-l-instituts