¿Qué ocurre cuando se encuentran la lengua y la tecnología? ¿Qué nuevos papeles adquieren una y otra? ¿Cómo se usan las lenguas en el medio tecnológico y para qué? ¿En qué aspectos influyen? ¿Cuáles están más presentes y cómo? ¿Qué posición ocupan las lenguas que nos son más próximas en este contexto? La respuesta es cada vez más complicada, desde que empezamos a ocuparnos de estas cosas, allá por el lejano 1997. Sabemos (o creemos saber) qué son las lenguas, pero qué comprende el universo tecnológico está cada vez menos claro, en este continuum en el que aparecen ordenadores, teléfonos móviles, televisores y consolas por los que circulan juegos, videos, imágenes, voces y textos, públicos, semipúblicos y privados, gratis y a la venta.
Sería tal vez más adecuado plantearnos la cuestión como “la presencia de las lenguas en el medio digital”. Al fin y al cabo, hoy en día todos los artefactos que acabamos de mencionar son digitales, y las cosas que circulan por ellos están también digitalizadas; todo está reducido a bitios: desde el millar que ocupa un sms a los catorce millones de veces más de una película en internet.
Para acercarnos a tema tan ingente tendremos que recurrir al procedimiento de “aproximaciones sucesivas”.
Comencemos por lo que paradójicamente quizás conozcamos mejor: la web. Mejor dicho, lo que hoy llamaríamos Web 1.0, compuesta en su mayoría por páginas estáticas y en la que durante años ha predominado el texto.
Hasta aproximadamente 2007 se podía tener una idea de cómo estaban la páginas web accesibles a los buscadores (la llamada “web oculta” quedaba de todas formas al margen de ellos). Utilizando los motores de búsqueda comerciales –primero Altavista y luego Yahoo y Google– se podía estimar la cantidad de páginas relativa de cada lengua. Esto se hacía siguiendo una metodología que creó Funredes, mediante la detección de palabras que solo existen en una determinada lengua (este sistema dejaba de lado el chino y el japonés, que no utilizan el alfabeto latino). Así, en 1998, el inglés era el 75% de la red en caracteres latinos, y desde entonces su proporción no dejó de bajar, básicamente porque se iban incorporando a internet hablantes de otras lenguas. Hacia el 2007, el inglés había bajado a un 45% y el francés (4,41%) seguía superando al español (3,80%)… y esto es lo máximo que se pudo saber. Los buscadores (básicamente Google) dejaron de proporcionar registros de cualquier rincón de la web, para centrarse en resultados del ámbito local del usuario, de su lengua, y relacionados con su historial de búsquedas… En otras palabras: ya no se podían utilizar para saber qué pasaba “en la web”.
Hay que señalar que sobre este tema con frecuencia se manejan estadísticas impresionistas, realizadas sin una metodología clara, pero que aportan cifras halagüeñas para las políticas triunfalistas sobre nuestra lengua. Un informe del 2009 atribuye al español en internet la tercera posición mundial por número de páginas (675 millones)… Hay que insistir: hoy por hoy no parece haber modo de averiguarlo.
La falta de estos datos actualizados impide un interesante ejercicio que practicó Funredes: relacionar el número de páginas web por idioma con el número de hablantes. Esto nos da una medida del vigor de los hablantes de cada lengua en la creación de páginas: en 2007 el inglés tenía una presencia ponderada de 4,4, el francés de 2,24 y el español de 0,63. En otras palabras, los anglohablantes producían siete veces, y los franceses tres veces y media más páginas que los hispanohablantes.
Otra interesante comparación es la productividad de los espacios web: ¿qué países dentro de la hispanofonía producen más páginas? En la última medición realizada, España figuraba en cabeza, a gran distancia de los demás, seguida por Cuba y Nicaragua. Aparte de la acción de las instituciones (de la que pronto veremos algo), parece que los españoles siguen creando páginas web: en el último Estudio General de Medios, el 16,3% de los entrevistados declara tener una página personal.
Hay otros datos objetivos que pueden manejarse. Uno sería estimar qué parte de la población hablante de una lengua usa internet (para cualquier fin). Internet World Stats, por ejemplo, da al conjunto de los hispanohablantes el tercer puesto en número de usuarios de internet (153,3 millones de usuarios), tras el chino (444,9 millones) y el inglés (536,6).
Llegados aquí, quizás sea el momento de dar un paso más: hay muchos usuarios, sí, pero ¿qué hacen? España tiene, por ejemplo, una implantación grande de banda ancha, pero somos el país que, en proporción a sus habitantes, más uso hace de los servidores de The Pirate Bay para buscar archivos, normalmente, no autorizados. Acceso aquí no equivale a acción cultural, sino a consumo. Y esto es solo un ejemplo…
Otro criterio es el número de servidores (ordenadores que suministran las páginas) por lengua. Un informe reciente señala que en la actualidad existen 339 millones de servidores en los dominios nacionales en los países en donde se habla español, aunque hay que recordar que no todas las páginas web están en dominios como .es o .mx, sino que muchos pueden estar en .com. Además, no todos los dominios registrados en un país albergan solo contenido lingüístico propio; por ejemplo, las universidades españolas suelen tener una parte nada desdeñable de sus contenidos web en inglés.
Y hablando de universidades, este es un colectivo al que se ha aplicado una interesante medida de la efectividad de su presencia en la web. Desde hace años el Laboratorio de Cibermetría del Consejo Superior de Investigaciones Científicas, csic, analiza las webs de las universidades de todo el mundo. Se estudian la visibilidad (el número total de enlaces externos que apuntan a su sitio), el número de ficheros ricos (Adobe Acrobat o .pdf, Adobe PostScript o .ps, Word o .doc y Powerpoint o .ppt), y la presencia en Google Académico de artículos y citas.
Estados Unidos, en el primer puesto, tiene 106 universidades entre las primeras 200, 186 entre las primeras 500, y 360 entre las primeras mil. Alemania (en el segundo puesto) presenta, respectivamente, 17, 50 y 67; y estos son los datos para los primeros países hispanohablantes: España: 2, 27 y 43; México: 1, 2 y 5; Chile: 1, 1 y 3 y Argentina: 0, 1 y 3.
Este tipo de estudios tienen el interés de ser cualitativos: más que contar páginas, se consideran factores como la popularidad de sus webs y la riqueza de sus contenidos.
Para cerrar el panorama de la Web 1.0, hay que tener en cuenta una revolución que empezó lentamente, desde los mismos albores de internet: la digitalización del mundo de la cultura, comenzando por el de la comunicación escrita. Todo ello está migrando también hacia lo digital, aunque con distintos ritmos.
Desde las bibliotecas, se está digitalizando una parte de los 25 millones de obras que se estima que hay en el dominio público. Google Libros, que es el actor más importante, ha digitalizado trece millones de libros en esa situación, en un centenar de lenguas (incluidas las lenguas muertas: hay mucho latín en las bibliotecas clásicas…). No se sabe a ciencia cierta, sin embargo, qué cantidad de libros en español se ha digitalizado. La Biblioteca de la Universidad Complutense de Madrid y la Biblioteca de Cataluña han incorporado fondos en el proyecto de Google, pero parte de estos libros no estará ni en castellano ni en catalán. Inversamente, las grandes bibliotecas norteamericanas e inglesas digitalizadas tienen fondos en español y en otras lenguas peninsulares. En un muestreo al azar, la mayor parte de los libros en español de los siglos xvi al xix que se localizan en Google provienen de bibliotecas de países no hispanohablantes.
Al lado de este gigantesco proyecto hay otros muchos de diferente envergadura, como el Internet Archive (2.500.000 libros) y el Hathi Trust (1.583.000 volúmenes): ambos comprenden muchos libros de Google. Tampoco sabemos cuántos de esos son en español.
La tecnología básica para digitalizar y publicar libros en la web está generalizada, pero cada proyecto puede aportar importantes diferencias en la selección de obras, el cuidado en el escaneado, en la transcripción automática (mediante ocr) o manual, en la creación de metadatos, y en las herramientas de búsqueda sobre el acervo reunido. Hispana tiene más de 2,6 millones de documentos (libros, revistas, legajos, documentos sueltos…). El Proyecto Gutenberg fue históricamente el primero, porque se remonta a 1971, y está basado en el trabajo de voluntarios. Contiene unos 300 libros en español, de un total de 33.000.
Entre los proyectos específicamente en español (y otras lenguas peninsulares) destaca la Biblioteca Virtual Miguel de Cervantes, creada en 1999. Ya contiene más de 60.000 libros, y es un buen ejemplo de construcción progresiva de un canon de obras literarias e históricas españolas e hispanoamericanas, de cuidado en la transcripción, y de creación de herramientas de búsqueda y explotación de los textos.
La Biblioteca Digital Hispánica, de la Biblioteca Nacional de España, dentro del proyecto de la Biblioteca digital europea, contiene 14.000 libros.
Existen proyectos de menor tamaño, pero que cumplen necesidades concretas, como los americanos El Aleph; la Biblioteca Ayacucho Digital, versión en línea de la colección editorial venezolana, o la reciente Biblioteca Digital de Pensamiento Novohispano, centrada en textos publicados durante los siglos xvi, xvii y xviii en México.
Existe, como hemos visto, una cantidad difícil de precisar de obras en español en el dominio público, volcadas de manera abierta en la web, pero la reciente popularización de los dispositivos dedicados a la lectura ha hecho aparecer un nuevo frente: obras con derechos de autor vigentes, accesibles a través de un e-reader (como el Kindle), de un teléfono avanzado (como el iPhone), de un ordenador tipo tablet (como el iPad), o de un navegador web. Son obras que están disponibles a cambio de una tarifa para descargarlos como archivos en los dispositivos de lectura o en ordenadores, o directamente desde “la nube”, o almacenamiento remoto, como en los proyectos futuros Google Editions o 24symbols.
De nuevo, este flanco ha comenzado con predominio inicial del inglés. Cuando aparezca, Google Editions tendrá disponibles unos dos millones de libros y los libros que Amazon ha puesto en Kindle andarán por los 670.000 (ambos conjuntos deben compartir numerosos títulos). En iBooks (aplicación para iPhone y iPad) hay 30.000 libros disponibles. En estos tres conjuntos habrá libros en español, pero no sabemos cuántos.
En e-libro.com (distribuidora solo para bibliotecas en español) hay 38.000 libros a la venta. En el mercado abierto, por ejemplo, Bubok (libros autopublicados) tiene 30.000, y Grammata, 23.000 (ambos conjuntos comprenden también libros sin derechos). La distribuidora digital Publidisa declara 20.000 libros y Libranda (la unión de un conjunto de editoriales con acción en España y en Latinoamérica) proporcionará acceso a 4.000 obras este año.
En los sistemas para compartir archivos entre particulares (p2p), y en sitios de descarga ilegal hay también una gran cantidad de obras (bestsellers, literatura actual…) difícil de determinar, pero hay indicios de que en español son muchos millares.
Para terminar, señalemos que la prensa digital en español (que desde hace años ya ocupaba un lugar destacado por su presencia en la web) se ha duplicado en diez años hasta registrar 850 cabeceras en 2009, siendo México, España y Argentina los países donde se ha producido un mayor incremento de diarios digitales.
En resumen: en obras en el dominio público, primero gracias a la iniciativa privada (Biblioteca Virtual Miguel de Cervantes y Google) y luego a las instituciones oficiales (Biblioteca Nacional), hay una amplia oferta disponible en español y otras lenguas peninsulares. Sin embargo, es de lamentar que las digitalizaciones que organismos públicos españoles efectúan con financiación pública aparezcan con más trabas para su acceso que las que proporciona una empresa privada: Google permite la descarga íntegra como facsímil o transcripción, lo que no es el caso en las obras de sitios oficiales. También es lamentable que se publiquen en la web sin una licencia que permita compartirlas y difundirlas, e incluso a veces aparezcan con un copyright que los saca del dominio público inicial. Esto es tanto más penoso cuanto que el esfuerzo de muchos particulares y de algunas instituciones, sobre todo de investigación, ha hecho que España sea el país con más obras bajo licencia Creative Commons.
En obras actuales, con copyright vigente, las cifras de obras disponibles son muy bajas, aunque crecientes: los libros en “edición electrónica” editados en España entre enero de 2005 y septiembre de 2010 son 50.000, lo cual está en torno al 8% del total de los editados en el periodo, pero de ellos la cuarta parte, 12.839, se han publicado en los primeros nueve meses de 2010. Este conjunto casi no comprende obras de narrativa y bestsellers (que son los más leídos en e-readers). Como la cifra de estos dispositivos en el mercado va creciendo poco a poco, la descompensación entre demanda y oferta es muy grande, y los lectores la suplen descargando ediciones no autorizadas.
Películas y programas de televisión también están llegando en grandes cantidades a internet: en forma de fragmentos a YouTube o íntegramente en programas de p2p o en webs de descargas. No: nadie sabe cuántos contenidos en español hay en estos sitios.
Por cierto, la difusión de estas grabaciones ha generado una proliferación de archivos de subtítulos, en muy distintas lenguas. En uno de los mayores sitios que los agrupa, SoloSubtítulos, se pueden encontrar en español 34.000 para películas y 31.000 para series televisivas (cada episodio de una serie cuenta como una unidad). Normalmente estos subtítulos son creados por fans, que se concentran en sitios como Wikisubtitles, hoy cerrado.
Vale la pena recordar que una parte importante del patrimonio audiovisual en español está en manos del Estado (como es el caso del noticiario no-do), y resulta lamentable que no esté disponible íntegramente en la red.
La música en español también está presente en todas las grandes plataformas de venta digital (por ejemplo, iTunes), en cantidades ignotas, y asimismo en las redes de intercambio entre particulares (p2p) y webs de descargas.
Pero la mayor revolución de los últimos años es la llamada Web 2.0: aquella en la que los usuarios son creadores de contenidos (en blogs, wikis, chats, tweets…) y se agrupan en comunidades virtuales (Facebook, Tuenti, …). Parte de estos mundos están en rigor fuera de la web: por ejemplo, las comunidades de redes sociales, y las partes privadas de comunidades mixtas, como Flickr.
Resulta realmente difícil conceptualizar este complejo universo, y por eso hay que agradecer al dibujante Randall Munroe que lo haya cartografiado. Su Mapa de Comunidades en Línea (Updated Map of Online Communities) es ni más ni menos que una representación del Continente de la Lengua.
La mayor parte de la superficie está cubierta por la Lengua Hablada; aunque nuestra cultura está muy centrada en la palabra escrita, conviene recordar dónde empezó todo, y dónde se manifiesta más la lengua. Pues bien: hacia el sur hay una vasta área rotulada como “teléfonos móviles”, con su península, los sms. Justo al lado está el territorio de internet, en el cual, y en una primera aproximación (el mapa se desarrolla en cuatro zooms), solo se distingue por su tamaño la zona de los e-mails. Los correos electrónicos son uno de los medios de comunicación más antiguos de internet, y, la verdad, nunca he visto cifras fiables de su volumen en español.
El espacio que ocupan los móviles o celulares es casi el triple del de los e-mails. En el ingenioso mapa de Munroe los tamaños representan el “volumen de actividad social diaria (post, chat, etc.)”, lo que nos dice que se producen el triple de llamadas que de correos enviados.
Si continuamos el zoom, vemos que al sur de los e-mails está el territorio y la Bahía de Facebook. Es más pequeño que el de los correos electrónicos, pero está creciendo: los jóvenes, como mis hijos, solo se comunican por Facebook (o sms), hasta tal extremo que tengo que insistirles en que comprueben periódicamente su correo, por el que a veces les mando recordatorios de cosas que tienen que hacer. No me da la gana enviarles sms, que cuestan poco, pero cuestan, y no todos mis hijos me tienen como friend en Facebook…
Facebook tiene unos 500 millones de usuarios en todo el mundo, de los que unos 10,5 millones están en España. En su territorio están las Llanuras de Interacciones Familiares Extrañamente Públicas o las Montañas de la Gente de la que No Puedes No Ser Amigo. Pero también tiene zonas extremas, como el Desierto Septentrional de Updates sin Leer o el Yermo Carbonizado de Redes Sociales Abandonadas, que limita al sur con territorios menores: Orkut, LinkedIn, MySpace. Facebook comprende también FarmVille, que con sus 81 millones de usuarios es el juego más utilizado de esa red social. FarmVille se juega en un navegador web, pero también hay aplicación para iPhone (a la proliferación de espacios de interacción se une la de dispositivos).
Bajo la zona de las redes se extiende el Mar de Opiniones, poblado por multitud de islas. Está por ejemplo el Archipiélago de los Blogs, con la Isla de los Blogs Religiosos y Misceláneos (que linda al sudoeste con el Mar de los Cero Comentarios), y la Isla de los Blogs Políticos, Técnicos y Musicales. El Archipiélago de los Blogs es grande, con sus 126 millones de microterritorios. ¿Cuántos habrá en español? Se citan 166.000 solo en España (el Estudio General de Medios declara que el 17% de sus encuestados tienen blog, y lo actualizan frecuente u ocasionalmente), pero además está toda América.
Al este se encuentra la Isla de YouTube, con la gran Bahía del Video Musical. YouTube tiene mundialmente 48,2 millones de usuarios. No tenemos buenos datos de cuántos son hispanohablantes, pero en el último Estudio General de Medios (España), el 8,7 de los entrevistados había subido videos a la web. Aunque hay que tener en cuenta que muchos hispanohablantes subirán videos en inglés, por ejemplo.
La siguiente isla, casi del doble de tamaño, es Twitter, con 75 millones de usuarios, de los que, se estima, 800.000 están en España.
Al lado hay un conjunto de pequeñas islas, como las Páginas de Charla de Wikipedia o Delicious, que ya se encuentran propiamente en el Mar de los Memes.
Este gran mar contiene, por cierto, al Archipiélago de los Foros.
Al sudoeste de Twitter, y separado por el Mar de Confusión de Protocolos (propiamente un estrecho), está la gran isla de Skype: es el espacio de la telefonía ip, cuyos componentes siguen el Internet Protocol. No es una tontería: con más de 42 millones de usuarios activos por día, Skype ocupó en 2010 el 13% de las llamadas telefónicas internacionales. En territorios próximos (pero muy inferiores en tamaño) están Google Talk o Windows Live Messenger.
Para terminar este panorama es forzoso comentar que al sudoeste, y separado del resto por el Gran Cortafuegos, se encuentra China, con su gigantesco qq, servicio de mensajería instantánea que incluye juegos, tonos de llamada para móviles y un sinfín de cosas: su tamaño excede el de Twitter.
Como se ve, estamos ante un esfuerzo gigantesco de cartografía, aunque siempre se habrán dejado cosas de lado, Por ejemplo: no figuran los comentarios a blogs ajenos o a la prensa digital; una buena parte del 20,5% de los entrevistados que en el último Estudio General de Medios de España declaraba haber subido textos a la web correspondería a ese tipo de intervención. O también las interacciones escritas entre cojugadores de juegos en línea (tipo Call of duty). No hay mapa que contenga todo…
Y ya es hora de introducir la variable lingüística en la Web 2.0. Despleguemos el mapa de comunidades de Munroe y ahora hagamos la pirueta mental de saltar a la tridimensionalidad, superponiéndolo sobre sí mismo dos mil veces. Cada una será una lengua, en su presencia digital, empezando por la más hablada, el mandarín, y llegando hasta alguna de las lenguas indígenas de la Amazonia, en la que quizá alguno de sus cientos de hablantes ha dejado su huella en el continuum ciberespacial. (El número total de lenguas utilizadas en el mundo es discutido, pero como estamos hablando de presencia digital nos hemos situado por debajo del umbral inferior.)
En cada plano, los mapas y sus territorios se redimensionarían. Por ejemplo, en el espacio del portugués crecería mucho la posición relativa que la red social Orkut ocupa entre sus análogas, gracias a la actividad de Brasil. Asimismo, aparecerían comunidades virtuales nuevas que en la cartografía de Munroe ni existen. Por ejemplo, en español surgiría Tuenti y en el plano del catalán aparecería VilaWeb. Algunos espacios estarían presentes en cualquier lengua: por supuesto el e-mail, pero también Facebook. Habría que estudiar, lengua por lengua, el uso que se da por ejemplo a los blogs (¿profesionales, de afición?) y a las redes sociales: muchas editoriales y bibliotecas de países hispanohablantes tienen presencia en Facebook, por ejemplo. Pero esta es una tarea para el futuro.
Un espacio común a muchas lenguas es Wikipedia: 276 lenguas tienen una versión (algunas, incipientes, con unas pocas decenas de entradas). Por producción, encabeza el inglés, con 3,4 millones de artículos; y le sigue el alemán (1,1 millones); el francés (1,02); el polaco y el italiano (0,74); el japonés (0,71) y por fin el español (0,66, es decir 660.000 artículos). El catalán tiene 290.000 entradas, el gallego 64.000 y el vasco 59.000.
Wikipedia es un perfecto indicador: como obra en manos de voluntarios, refleja bien la preocupación de los hablantes de las distintas lenguas por poner a disposición de sus homólogos una fuente tan importante de conocimiento. Como el español se extiende entre América y Europa con unos 440 millones de hablantes, sus 0,66 millones de artículos significan una productividad cuatro veces inferior a la de los alemanes, con sus 200 millones de hablantes y 1,1 millones de artículos.
Atravesando las capas de nuestro mapa tridimensional ideal habría una serie de hilos que unen un plano con otros varios: son los hablantes que se desenvuelven, activa o pasivamente (en este último caso como oyentes o como lectores) en más de una lengua. Mis amigos de Facebook se expresan en castellano, inglés, catalán, francés o alemán, pero yo suelo intervenir en la primera de estas lenguas. Sigo tweets en castellano, inglés, catalán, italiano, francés o portugués, e intervengo sobre todo en español, aunque mis retweets pueden ser en cualquier lengua.
Hay espacios que reciben multitud de hilos de los otros planos: el espacio del inglés, que es el de la cultura dominante, y al que acuden usuarios de multitud de lenguas (adolescentes argentinos que siguen la liga de la nba o franceses que ven videos en YouTube). Y hay espacios, como el del español, que producen mucha menos información de la que van a buscar.
Hay hilos verticales permanentes, pero otros surgen esporádicamente, y apenas duran unos minutos. Representan las traducciones automáticas a las que apelan las personas que no conocen una lengua pero que han localizado en ella algún material de interés potencial. El español está presente, como lengua origen o como lengua meta, prácticamente en todos los traductores accesibles en línea. El más amplio de ellos, el de Google, comprende entre sus 58 lenguas las cuatro lenguas cooficiales de España.
Hasta aquí estábamos hablando de las lenguas como una propiedad de los contenidos: por eso hablábamos de e-books en inglés, o chats de Facebook en español, pero los traductores nos han introducido en un universo nuevo: los programas que manejan la lengua natural como una herramienta para la comunicación entre las personas.
Aparte de los traductores, hay otras muchas herramientas lingüísticas (y no todas las lenguas de la Tierra, ni mucho menos, disponen de ellas). La pregunta que deberíamos formularnos los hablantes es triple: ¿existen programas lingüísticos que hagan las cosas que necesitamos en nuestra lengua? Si no existen, o no existen para todo lo que querríamos, ¿nuestras instituciones y empresas tienen los medios para desarrollarlos? Y si existen: ¿en qué manos (propias o ajenas) está su explotación? Los hispanohablantes, por ejemplo, tenemos medios para desarrollar tecnologías lingüísticas, pero infrautilizados, de modo que estamos pagando por usar nuestra lengua en el ámbito digital.
¿Qué herramientas lingüísticas utilizamos? Los correctores de ortografía y gramática, los diccionarios de sinónimos, y otras ayudas lingüísticas ligadas a un procesador de textos. Pues bien: en Microsoft Office (autor del famoso programa Word) existen para una cincuentena de lenguas, entre ellas el español y las lenguas cooficiales de España. Se da el caso curioso de que casi todas estas se llevaron a cabo porque instituciones semipúblicas (como la Real Academia) o públicas (gobiernos autonómicos) han pagado a Microsoft, o han colaborado con esta empresa, para que sus programas (que luego, por supuesto, están a la venta) tengan ayudas en esas lenguas.
También nos pueden ayudar en las búsquedas. Google tiene interfaces en unas 250 lenguas y variantes de escritura (entre otras las que nos son más cercanas). Esto significa que un hablante de español puede hacer búsquedas, incluso escribiendo mal una palabra, y el buscador sabrá enmendarle. También le propondrá sinónimos de las palabras buscadas, o sus traducciones. La lengua natural escrita se ha convertido aquí en una herramienta para comunicarse con los dispositivos automáticos.
Los softwares lingüísticos nos pueden ayudar a convertir las obras en papel en texto digital buscable y comunicable, ligados a la digitalización de libros y periódicos a través de los programas de reconocimiento óptico de caracteres (ocr). Pues bien: el escaneo de libros de Google Libros y posterior ocr tiene en cuenta las peculiaridades de 430 lenguas diferentes, entre las que sin duda están el castellano y el catalán.
También hay diccionarios en línea que asisten al lector de una web o de un texto en un teléfono móvil, proporcionándole el sentido o la traducción de la palabra que ignora. De nuevo, esto exige una cierta tecnología lingüística, por ejemplo para pasar de una forma conjugada de un verbo al infinitivo mediante el que figura en el diccionario.
Por último, hay herramientas que facilitan el uso de la lengua escrita también en los teléfonos móviles: la predicción de palabras a partir de pulsaciones de los pequeños teclados y la corrección de palabras en sms exigen programas específicos, que normalmente, en el caso del español, no han sido creados por empresas de países hispanohablantes. El iPhone los tiene para el español y para el catalán, y leemos en la página de créditos del dispositivo: “IntelliWriter ProofReader Spanish [Catalan] text proofing software © 2002 by Vantage Research. All rights reserved.”
¿Esto es todo? Me temo que no: la siguiente frontera, en la que ya hay implicados numerosos dispositivos y algunas lenguas, es usar la voz como entrada para buscadores (por ejemplo en un teléfono móvil), para traductores, y en general para dar órdenes a los dispositivos del hogar que –se nos dice– acabarán integrándose en ese vasto continuum de aparatos conectados a internet… ~
Este artículo está sujeto a la licencia de Creative Commons Reconocimiento-NoComercial-CompartirIgual 3.0 España (http://creativecommons.org/licenses/by-nc-sa/3.0/es/)