• Pódcast docente en la era de la audificación

    «No es un archivo de MP3 para la escucha bajo demanda,

    no es una radio,

    no es un medio,

    no es un género,

    no es un objeto sonoro,

    no es un proceso de producción;

    el pódcast es todo eso y mucho más».

    Esta es la definición que elige María Jesús Espinosa de los Monteros, citando a un profesor italiano cuyo nombre no he comprendido. Lo he escuchado en un programa sobre pódcast que ha reafirmado todo mi interés por esta humilde y potente forma de comunicación. Hacer un pódcast docente es subirse a este carro tan actual y dejarse oír (nunca mejor dicho), es cautivar a tu alumnado a través de una plataforma y que elija tu audio para salir a correr, a nadar o al gym y si además consigues hacerlo ameno, ¡miel sobre hojuelas!

    El pódcast, según esta autora ya mencionada, es el hijo bastardo de la radio e internet. Pero va más allá de la radio a la carta (no eliges solo qué oyes y cuándo dentro de la producción de los medios profesionales, sino dentro de una oferta enormemente ampliada): es la democratización del discurso sonoro. Ahora bien, entre esta abrumadora y casi ilimitada cantidad de voces que generan un ruido espantoso, dos son los imperativos para conquistar una audiencia: el nicho y el valor diferencial (que ya destacamos en la presentación de este blog). Estas conceptos entre lo funerario y lo capitalista son ineludibles en la comunicación actual. El individualismo del usuario, la soledad de nuestras gratificaciones, la satisfacción de necesidades cada vez más concretas y especializadas… nos abocan a pensar estratégicamente la comunicación; nos incitan a enseñar a pensar la comunicación estratégicamente (en términos publicitarios como «target» o «promesa básica»). En todo este ecosistema comunicativo, los docentes aún tendríamos una ventaja (tal vez inmerecida): un potencial público cautivo que ya casi nadie tiene.

  • Lingüística del corpus

    La palabra «corpus» está en latín y se usa como tecnicismo de la lingüística. Literalmente significa «cuerpo», pero en realidad se refiere a un conjunto grande de textos representativos de cierto ámbito. Un corpus no tiene por qué ser digital (en el pasado no lo eran); pero ahora nos estamos refiriendo a conjuntos de textos escogidos, digitalizados y algunas veces anotados (es decir, con etiquetas de información gramatical o literaria); muchos de ellos están disponibles en red. Un equipo de lingüísticas, filólogos e ingenieros se ponen a trabajar juntos para decidir cómo recoger la muestra, qué anotaciones hacer y cómo será el acceso posterior a las consultas. Por ejemplo, existe un corpus de sonetos del Siglo de Oro español o un corpus de charla oral juvenil madrileña; sin embargo, el más famoso sin duda es el CREA (Corpus de Referencia del Español Actual), que es muy amplio y recoge muchísimos textos de todos los ámbitos y temas, tanto escritos como orales, y de todos los países de habla hispana, desde 1975 hasta 2004. ¿Para qué nos sirven los corpus?

    Pueden servir para muchos tipos de investigación estadística; por ejemplo, para hallar la frecuencia de una palabra dentro de un idioma, la variación de dicha frecuencia a lo largo del tiempo, de la región, del género textual o del tema… También puede servir para localizar contextos de uso de una palabra y comprenderla mejor. Puede servir para hacer un estudio de concordancias entre textos diferentes e incluso decidir la autoría de una obra literaria (estilometría computacional). Y, finalmente, quizás lo más importante no es esta ayuda que la tecnología presta a la filología, sino el uso de corpus anotados para entrenar inteligencias artificiales o procesamiento del lenguaje natural, que ya explicamos en la anterior entrada.

  • Semblanzas de la lingüística computacional

    La Lingüística Computacional es una especialidad que se ocupa de enseñar a los ordenadores el comportamiento verbal humano para que se puedan comunicar con nosotros y responder a nuestras peticiones, como hacen por ejemplo los asistentes de voz SIRI (Apple), ALEXA (Amazon), GOOGLE ASSISTANT (Google), CORTANA (Microsoft) y BIXBY (Samsung). La famosa aplicación de OpenAI, ChatGPT, ha revolucionado el panorama de las inteligencias artificiales comunicativas ofreciendo todavía mayores prestaciones al usuario. Se centra más en la conversación y aporta conocimientos profundos y pretendidamente rigurosos sobre cualquier tema. Además, se alimenta de las conversaciones que mantienes con él, aprendiendo de ellas a ser cada vez más pertinente y especializado en tus necesidades.

    ¿Todavía me van a preguntar mis estudiantes de la ESO y de Bachillerato para qué sirve la sintaxis, la morfología, la semántica, la pragmática…? No podemos enseñarle a un ordenador cómo nos comportamos verbalmente los humanos si no lo sabemos nosotros mismos; y, si no podemos enseñarle, tampoco podemos pedirle que se comunique con nosotros y nos ayude. Un ordenador tiene que aprender Procesamiento del Lenguaje Natural (PLN) y se esto se puede lograr de dos maneras: formulando las reglas de nuestro lenguaje y poniéndolas en su lenguaje o dándole cantidades inmensas de textos para que saque conclusiones. Pensaréis: ¡que lo programen otros! Esto es realmente muy legítimo si os queréis limitar a usar lo que otros desarrollan y no crear nada nunca; pero yo os voy a presentar a tres mujeres jóvenes que se dedican ahora mismo a la lingüística computacional y son muy felices en esta área.

    La primera se llama Carmen Torrijos y debe tener en torno a 35 años (no he conseguido localizar este dato). Ha estudiado Traducción e Interpretación, Filología Hispánica, Comunicación Intercultural y otras carreras en diversas universidades madrileñas. De manera un poco casual cayó en el mundo de la Inteligencia Artificial y desde el año 2013 se dedica a proyectos de Procesamiento del Lenguaje Natural. Ahora es la responsable de Inteligencia Artificial en la empresa de comunicación Prodigioso Volcán.

    La segunda se llama Elena Álvarez Mellado y se define como grammar punki (lado descriptivista y antinormativista de la lengua). Es lingüista computacional y divulgadora. Tiene actualmente 36 años. Según he podido conocer por ella a través de la entrevista que le hacen en el podcast, empezó estudiando Medicina y de repente, en tercero, cambió de idea y recordó lo mucho que le gustaba la sintaxis en el instituto; así que dejó la carrera de Medicina, empezó Lingüística y se matriculó por error en una optativa llamada Lingüística informática. Allí empezó a programar y desde entonces es una entusiasta de la programación.

    La tercera y última se llama Leticia Martín-Fuertes. Tiene más o menos la misma edad que las anteriores, unos 35 años. Estudió Filología Clásica (es decir, lengua y literatura griega y latina, Homero, Virgilio, etc) y desde ese panorama llegó al mundo del Procesamiento del Lenguaje Natural. Actualmente es profesora de Introducción a la Programación en el Máster de Humanidades digitales de la Universidad Autónoma de Madrid. Además, es muy muy activa en redes sociales, especialmente en el antiguo Twitter (ahora X).

  • Apocalipsis digital

    Se está construyendo un marco cognitivo que ve la sociedad posindustrial como una distopía. No es así. Las potencialidades de las nuevas tecnologías para mejorar nuestras vidas son inmensas. Solo hay tres premisas para configurar un humanismo tecnológico: educación, justicia social y economía sostenible.

    Tecnología quiere decir arte, oficio o destreza. Por lo tanto, no es una cosa sino un proceso, una capacidad de transformar o combinar algo ya existente para obtener otra función.” La tecnología comienza con la historia de la Humanidad, desde que se frotaron las primeras piedras para encender el fuego o se hizo la primera rueda para transportar la carga. Incluso, desde que los primeros grupos humanos dibujaron en las cuevas sus representaciones y comenzaron a negociar significados. El desarrollo de nuestra capacidad simbólica, junto con la cooperación masiva, como decía Harari en su libro Sapiens, nos ha llevado a la conectividad en la que ahora estamos inmersos.

    Una de las corrientes de la teoría de la comunicación, la Escuela de Toronto, planteaba ya hace mucho tiempo que los sistemas de información y comunicación condicionan la organización social. Al final de la Edad Media, el monopolio del saber pasó del clero a la burguesía con el desarrollo de la imprenta y cambió la sociedad, dando lugar, con el paso de tres siglos, a la Revolución francesa y al final del Antiguo Régimen.

    A esa cultura ilustrada de la Galaxia Gutemberg le tomó el relevo la Aldea Global a partir del desarrollo de los medios de comunicación de masas (radio, cine, televisión), como explica McLuhan en Understanding Media: The Extensions of Man. En la era electrónica se produce la extensión de nuestro sistema sensorial gracias a los medios electrónicos.

    La obra de McLuhan es anterior a internet, al igual que Apocalípticos e Integrados de Umberto Eco, en 1964. En aquellos tiempos, ya se veía que los académicos e intelectuales adoptaban dos actitudes: unos recelaban de la cultura de masas, otros la aceptaban, apocalípticos e integrados, respectivamente. Tecnófobos y tecnófilos ocupan parecidas posiciones en la actualidad con respecto a la sociedad posindustrial. Un elemento central de nuestra cultura actual es la Wikipedia. Los apocalípticos denigran esta obra, acusándola de poco rigor; pero “te permite conocer de forma rápida y sencilla la generalidad de un tema para poder abordar con otras fuentes lo específico” (Rodríguez, 2015) y contiene menos errores que enciclopedias más prestigiosas.

    Las características que definen el paradigma comunicativo actual son: digitalidad, hipertextualidad, reticularidad, multimedia e interactividad, como dice Scolari. La interactividad ha tomado últimamente la mayor relevancia con el desarrollo de ChatGPT. La aplicación de OpenAI no es el primer chatbot, pero sí está sustancialmente evolucionado y puede sustituir con ventajas a Google y a Wikipedia por su mayor «amabilidad» con el usuario. Apenas está empezando, pero ya es impresionante su procesamiento e imitación del lenguaje natural y el uso de algoritmos para almacenar datos, pendiente, eso sí, de revisión ética y legal.

    Cambiará positivamente el sistema educativo porque, ¿para qué engañarnos?, este está obsoleto. No tiene sentido acumular datos (ni siquiera todos relevantes, sino tradicionales) y memorizarlos cuando nuestra memoria tiene ya una extensión fuera de nosotros (los dispositivos electrónicos). Como dice Alsina: “Vivimos en la época de la reflexividad, en la que se tienen que redefinir, renegociar, repensar muchos de los conocimientos que se han dado por sabidos.” La educación tiene que afrontar los verdaderos problemas y enseñar a usar el conocimiento para tareas relevantes con el único objetivo de mejorar el mundo y la vida de los animales humanos y no humanos dentro de un entorno saludable y hermoso. Usar bien un ordenador, las redes sociales o la inteligencia artificial no es desconocer a Kant.

    ¿Cuál es el verdadero peligro de ChatGPT? ¿Puede deshumanizarnos? ¿Puede hacernos más tontos? ¿Puede dejarnos indefensos ante un hipotético apagón digital? ¿Quitarnos trabajos? ¿Crear un mundo como Blade Runner? La retahíla de escenarios distópicos no tiene límites, pero los peligros de ChatGPT no están ahí. Sus peligros son: servir al mercado y no al progreso; aumentar la fractura social y no disminuirla; permitir el expolio de nuestros datos y mercadear con nuestra intimidad, tratándonos como objetos de lucro. Conquistemos esta nueva tecnología para el bien antes de que nos la arrebaten para el mal.

  • Sintagmas insólitos

    La palabra «sintagma» delata lo que soy: una profesora de Lengua de Secundaria (en España), también una persona licenciada en Filología (Hispánica), ese tipo de persona que a la combinación de varias palabras en torno a un núcleo la llamaría «sintagma». Eso soy.

    Y también una persona que lee bastantes libros y a veces piensa que ha leído ya no bastantes, sino demasiados libros y no ha encontrado en ellos nada que sea mínimamente relevante. Y de repente un día vi que leía no solo mental y diagonalmente. sino melancólicamente, cansadamente y que solo me sentía cautivada con la presencia de un sintagma insólito, es decir, de una combinación de palabras que no fuera recurrente.

    Como las ideas se encienden solas unas a otras y vivimos psíquicamente conectados a Google, enseguida di en pensar que ante la presencia de un sintagma insólito uno debe googlearlo y apuntar el número de entradas arrojadas en equis segundos. Dicho y hecho. Elijo mi primer sintagma, cansadamente tomado (cual gota de rocío sobre una violeta) en el Walden de Thoreau: «Deliberadamente amable»: 517 en 0.25 segundos. Grado de insolitez bastante elevado.

    Resultado de la entrada de ese sintagma en mi vida: no puedo ser deliberadamente amable, siento un rechazo profundo hacia todo lo deliberadamente amable. Jamás había pensado que alguien pudiera señalar en la amabilidad una cualidad que en referencia a su génesis la situase por detrás de la grosería.

Issue is a magazine-style theme design that displays blog posts, reviews, artwork and news.

⏬

It comes with different styles to spark your creativity in making it just as you’d like to.

Designed with WordPress

MagBlog is a magazine theme focused on sizable type and imagery to expand your content. Make it yours ⏬

Diseña un sitio como este con WordPress.com
Comenzar