Foto Logo TECNUM

Minspeak es un sistema pictográfico, usado en comunicación aumentativa. A las personas que no poseen la capacidad de hablar y que pueden beneficiarse de este sistema, las llamaremos “comunicadores aumentativos”.

¿Cómo podríamos describir sus problemas de comunicación?. No poseen la capacidad de comunicarse utilizando el habla, es decir, son incapaces de producir fonemas y combinarlos para crear palabras.  Estas personas pueden utilizar algo para comunicarse: una máquina que hable por ellos que les permite rápidamente acceder al lenguaje y a la voz. El sistema Minspeak es una herramienta poderosa para ayudar a la gente que no puede hablar. Se basa en un principio patentado y desarrollado por Bruce Baker, en el año 80. Durante los últimos 20 años, ha sido desarrollado aún más por clínicos, profesionales de la educación especial, lingüistas, y personas que dependen de la comunicación aumentativa. Quizá sea el lenguaje visual (LV) más sencillo y más ampliamente utilizado en comunicación aumentativa. En principio, puede trabajar con cualquier tipo de ordenador, si se configura para este tipo de acceso al lenguaje. De cualquier modo, aunque puede trabajar con cualquier ordenador, Prentke Romich desarrolló unos ordenadores basados en este lenguaje, y han sido diseñados específicamente para obtener ventaja de la clínica educativa y del poder comunicativo de este sistema. Algunos de los aparatos que han sido diseñados específicamente para Minspeak son el Liberator, el Chatbox, el AlphaTalker, el SideKick y el DeltaTalker.

En 1980 Bruce Baker tuvo su primer contacto con personas que no podían usar el habla o signos manuales con éxito con interlocutores desconocidos. Estudiando las ayudas de la comunicación y el lenguaje visual usadas en aquel tiempo se dio cuenta de que no satisfacían las necesidades de estas personas, que dependían de ello para comunicarse. En particular, advirtió que las personas que utilizaban sistemas basados en deletreo, iban muy lentas (por el número de pulsaciones que debían realizar).

Sencillamente no hay más que contar el número de pulsaciones, sin contar los acentos, de la frase anterior. El total es de 144. Si una persona está utilizando un puntero de cabeza y generado una letra cada dos segundos, podría emplear 288 segundos, prácticamente 5 minutos, para producir una frase. Esto sin tener en cuenta los posibles errores y sin conceder periodos de pausa. Naturalmente no todas las frases son así de largas. Sin embargo, las frases a menudo emplean 75 o más pulsaciones en longitud. La cantidad de esfuerzo y tiempo empleados en generar lenguaje de esta manera no es práctica.

Baker estudió una variedad de planteamientos al problema de la pulsación: algunos programas de predicción de palabras podrían solucionar este problema. Dichos programas deberían funcionar de manera que permitiesen a un persona seleccionar una letra y después leer una lista de palabras que comiencen por esa letra, hasta hallar la palabra que desea comunicar siempre y cuando se encuentre en la lista. Este tipo de sistema reduce el nº de pulsaciones, pero intervienen otros problemas. ¿Cuántos de nosotros podemos recordar lo que queremos decir si después de cada pulsación nos vemos frente a una lista para leer? ¿Cuánto tiempo se requiere para leer cada lista?. Nuestra frase ejemplo requeriría leer como mínimo dos docenas de listas.

Baker también rechazó la idea de reducir el número de pulsaciones mediante las abreviaturas, debido a que la posibilidad de memorizar cientos y cientos de abreviaturas parecía abrumador.

El sistema de letras por tanto no parece el más indicado. Baker descubrió esto antes de saber que la mayoría de personas discapacitadas tenían dificultades en leer y deletrear. Él llegó a esta conclusión al estar en contacto con adultos de centros de educación especial que dependían de sistemas aumentativos de comunicación, y pensó que tampoco serían capaces de poder comunicarse con un sistema de salida de voz usando el alfabeto.

Sus conocimientos en lenguas orientales le ayudaron a buscar soluciones en base a la semántica o al significado. Cualquier frase en Chino puede tener 12 caracteres o menos. Imaginó el beneficio de una técnica de representación del lenguaje en inglés que pudiera tener 20 caracteres por frase. El sistema de escritura Chino tiene miles de caracteres diferentes. Para alcanzar una competencia comunicativa utilizando un sistema logográfico como el chino, una persona debería necesitar al menos 1.000 caracteres. Imagina el barrido a través de una serie así.

Baker exploró la posibilidad de representaciones semánticas más directas, pero también era un problema. Un niño de 5 años utiliza miles de palabras distintas. La posibilidad de utilizar miles de dibujos diferentes le pareció poco práctico, aun cuando se pudiese establecer un vocabulario “esencial” , cientos de palabras deberían ser representadas y colocadas en el tablero, y en este caso sería imposible utilizarlo de forma independientemente.

La alternativa electrónica podía ayudar a seleccionar mediante la navegación por distintas pantallas, organizadas en la pantalla principal por categorías de palabras. Mientras que este planteamiento podría ser transparente para enseñar los diferentes componentes de una categoría al usuario, no ayudaría mucho con el lenguaje real conforme lo usamos. Por ejemplo, cuando estamos en la pantalla de la categoría emociones, raramente se selecciona más de una emoción para construir una frase. Por ejemplo, en la frase “A mucha gente le gusta ir al zoo”,  encontraríamos probablemente el icono “mucha” en otra pantalla que diferente a “gente”. Este icono debería estar en otra pantalla diferente al icono “gustar”, éste estaría en otra pantalla diferente que el icono “ir” y éste a su vez en otro distinto al icono “a”. Éste estaría en otra pantalla que “el” y a su vez en otra pantalla distinta al icono “zoo”.

Si “gustar” e “ir” estuvieran en la misma pantalla, y “el” y “zoo” también estuvieran en la misma, los problemas que conlleva el trabajar con tantas pantallas, se solucionarían. Pero la solución creaba otro problema: cuando los usuarios iban a seleccionar más de un icono de cada pantalla, necesitaban decir al aparato que abandonara cada pantalla cuando habían terminado. No lo podía hacer automáticamente. No sólo tenían que decirle al aparato a qué pantalla querían ir, sino también que debía abandonarla cuando hubieran terminado.

Este sistema no le parecía razonable a Baker. Él sabía que las personas con una capacidad normal generaban habla sin esfuerzo y semiautomáticamente. Introduciendo una serie de tareas complejas de búsqueda visual y de discriminación, menú a menú, dibujo a dibujo, y pantalla a pantalla, le parecía demasiado antinatural. Sólo el tiempo empleado en el reconocimiento visual sería un obstáculo enorme, sin tener en cuenta el nivel de distracción mental. Las personas mecanógrafas, son capaces de escribir sin mirar el teclado. Si se introdujera un sistema de predicción de palabras o un sistema iconográfico, las pulsaciones y los resultados serían un caos. Otro problema es el de los sinónimos. Por ejemplo, cómo hace una persona para distinguir entre los iconos “triste”, “infeliz”, “desolado”, etc. En muchos idiomas estas palabras son decodificadas usando el sonido asociado de forma totalmente arbitraria al concepto. El sonido “triste” se asigna al concepto “triste” porque quien habla español lo usa así. En español “triste” significa lo mismo que lo que significa para los ingleses “sad”. Las palabras no ilustran un concepto, lo codifican. Es la capacidad del lenguaje natural de los humanos para codificar, más que para representar directamente el significado lo que permite que las personas hablen automáticamente (es decir sin tener que pensar conscientemente como generar cada palabra).

Debido a este entrenamiento lingüístico, Baker se vio intuitivamente impulsado primero a un sistema pictográfico porque los dibujos “producen un mayor impacto”. La letra es lo que mejor codifica un fonema, pero un dibujo puede codificar una idea completa o incluso una serie de ideas. En segundo lugar, le atrajo la idea de codificar sistemas porque te permiten generar lenguaje de forma rápida y fácil. Era consciente también de la necesidad de tener un conjunto de símbolos relativamente pequeño. Combinando estas nociones conjuntamente, exploró el desarrollo de sistemas como el jeroglífico porque estos sistemas permiten por su eficacia, un procesamiento automático y de gran flexibilidad utilizando un pequeño conjunto de símbolos. Sus primeros esfuerzos reflejaban estrechamente una interpretación de los sistemas jeroglíficos en relación a la tecnología del microchip actual. El resultado fue el primer sistema Minspeak.

El planteamiento de Baker era sencillo y al mismo tiempo práctico y poderoso. Muchas personas asumen que los dibujos tienen un significado. El dibujo de una taza significa una “taza”. Un dibujo de una manzana significa una “manzana”. Sin embargo, los objetos no existen en realidad fuera del contexto y este contexto ha sido utilizado a lo largo de toda la comunicación aumentativa y alternativa. En los tableros de lenguaje, las personas utilizan un dibujo de una taza para decir cosas como “beber” y “sediento”. Una manzana puede significar “fruta”, “comer”, o incluso “hambriento”.

Lo que hizo Baker fue sistematizar un proceso natural. Utilizó el significado más amplio de un dibujo para el propósito de codificar. Por ejemplo, un dibujo de un arco iris en un tablero manual puede significar “feliz” o incluso “lluvia”. La interpretación, el significado del dibujo, está a menudo en la interacción entre el usuario de comunicación aumentativa y su interlocutor. En un sistema Minspeak, arco iris podría significar “feliz” o “lluvia” dependiendo del contexto en el que se utilice. Pero más que depender del interlocutor para determinar el significado del dibujo, Minspeak permite al usuario de comunicación aumentativa seleccionar este significado de forma independiente. Un dibujo de un arco iris secuenciado después de un dibujo de un paraguas puede significar “lluvia”, pero arco iris secuenciado después de una tecla que ilustre un corazón (representación de emociones) puede significar “feliz”. Arco iris como primera tecla puede estar asignada para significar “colores”. Arco iris seguido de corazón puede pues, significar “rojo”.

Utilizando este sencillo, proceso, Baker descubrió que era capaz de codificar cientos de palabras y frases con muy pocas pulsaciones (secuencias de dos o tres símbolos). La producción de lenguaje automático empieza cuando una secuencia de símbolos se vuelve tan familiar que el usuario no se acuerda de ella de forma consciente, simplemente la usa. En este momento, el esfuerzo físico se atenua sustancialmente.

La persona ahora recuerda la palabra por sí misma, no la secuencia de símbolos. Este es el modo en que hablan las personas no discapacitadas. Cuando tienen dominado el patrón motor para producir una palabra, no tienen que recordar más este patrón motor, se vuelve automático. Los niños en pleno desarrollo aprenden como producir una palabra utilizando la palabra. No recuerdan el cómo se produce la palabra.

Por consiguiente, anteriormente al desarrollo de Minspeak, surge la idea de hacer programas de aplicación (MAPs) con una selección de dibujos y vocabulario ya hechos. El primero de estos programas de aplicación fue denominado “Words Strategy”. Se codificaron más de 2.500 unidades de vocabulario diferentes con un promedio de pulsación de 1’9 pulsaciones por palabra. “Words Strategy” permite al usuario de comunicación aumentativa generar el lenguaje de forma flexible y automática con una velocidad 60% superior que si este mismo usuario estuviese deletreando.

Con Minspeak no hace falta que el comunicador se desplace de pantalla en pantalla, ni se requiere que lea lista tras lista de palabras predictivas. Se necesitan 180 horas aproximadamente de entrenamiento en “Words Strategy” (más o menos el equivalente al tiempo necesario para dominar el mecanografiado), para llevar a una persona a un nivel de procesamiento automático en el sistema.

El trabajo de Baker estaba normalmente encaminado al lenguaje adulto, aumento de la velocidad comunicativa, competencia conversacional, procesamiento automático y otras cuestiones relacionadas con la interacción y la fluidez. Sin embargo, los logopedas, educadores especiales y otros profesionales han utilizado el sistema en muchas otras direcciones. En particular, Minspeak se ha desvelado como una herramienta significativa en el aprendizaje de los conceptos del lenguaje para las personas con alteraciones del desarrollo.

Quizás la mejor manera de entender el sistema Minspeak sea fijándonos en algunos ejemplos de su uso por parte de algunos individuos que dependan de la comunicación aumentativa. El término icono y dibujo a menudo será usado indistintamente.

Lindsay, que tiene 5 años, tiene un icono de MANZANA roja en su comunicador Liberator. La MANZANA, es utilizada para representar las palabras y frases siguientes: “Quiero comer”, “¿Cuándo vamos a comer?”, “Traje dinero para la comida”, “Hambriento”, “Rojo”, “Comida” y “Cocina”. Cuando ella pulsa la MANZANA seguida de otra tecla, dirá alguna de las palabras o frases anteriores.

El profesor, la familia, el logopeda y el auxiliar de la clase de Lindsay comprenden la idea de que el dibujo de MANZANA representa muchas ideas o palabras, pero su pregunta es: cuando Lindsay pulsa el dibujo de MANZANA, ¿cómo sabe el Liberator qué palabra o frase quiere decir ella?. La respuesta es que el significado del dibujo se define por otros dibujos utilizados con este.

Cuando Lindsay quiere decir la palabra “ROJO”, lo primero que pulsa es el dibujo de ARCO IRIS, que para ella codifica la idea de colores y después pulsa la MANZANA. Si ella quiere preguntar ¿Cuándo comemos?, primero pulsa el dibujo de SIGNO DE PREGUNTA, que codifica la idea de preguntas y después la MANZANA. El ARCO IRIS y los iconos de pregunta se reducen a 1 tema, de colores o preguntas. Para cada mensaje de Lindsay con el icono MANZANA, ella pulsa un icono diferente para codificar el tema y después pulsa el icono MANZANA.

En el sistema de Lindsay ella sólo utiliza secuencias de dos iconos. El primer dibujo siempre codifica el tema y el segundo dibujo siempre codifica la idea específica que ella está comunicando. Tiene 32 dibujos en su plantilla, cada dibujo codifica un tema diferente y tiene hasta 32 frases y palabras sencillas con cada tema. El sistema Minspeak de Lindsay está organizado de forma muy eficaz para ella, pero esto no significa que todos los sistemas Minspeak estén o deban estar organizados de la misma forma que el de Lindsay.

Si cada uno de los dibujos de Lindsay tuviese un solo significado, podría tener en su sistema solamente 32 mensajes. Utilizando el significado más amplio o contextual de cada dibujo para formar códigos, Lindsay tiene un vocabulario de varios cientos de palabras o  frases en su sistema disponibles desde una única plantilla. Ella no tiene que pedirle a alguien que le cambie su plantilla, ni tiene que desplazarse de pantalla en pantalla para hablar. Como Lindsay aprende los patrones motores utilizados en cada secuencia, la producción de lenguaje se vuelve cada vez más automática. Lindsay puede después concentrarse más en el uso del lenguaje y menos en localizar el lenguaje en su sistema.

Sara, de 22 años, tiene secuencias de uno, dos y tres iconos. Utilizando aproximadamente 60 iconos, tiene casi 800 palabras y frases codificadas según el tema, la idea y la parte gramatical (ej., nombre, verbo, adjetivo, preposición). Ella pulsa uno o dos iconos y después la parte gramatical necesaria para codificar la palabra que desea:

MANZANA+NOMBRE = comida

MANZANA+VERBO = comer

MANZANA+ADJETIVO = hambriento

MANZANA +TERMÓMETRO+VERBO = cocinar

Aunque el sistema de Lindsay es diferente al de Sara, ambas utilizan iconos de múltiple significado en secuencias. Sin tener en cuenta cómo están organizados los sistemas, el principio de funcionamiento de Minspeak sigue siendo el mismo: la utilización de iconos de significado múltiple en secuencias pictográficas.

El principio de que los dibujos tienen múltiples significados y el que los significados específicos pueden ser definidos mediante la combinación de dibujos ha sido comprendido por Lindsay a la edad de 5 años y por Sara con 22. Como Lindsay madura y su lenguaje necesita aumentar, gradualmente sus sistema se volverá cada vez más similar al de Sara. Aunque los iconos cambiasen y las secuencias de iconos varíen y aumenten, el principio de Minspeak seguirá siendo el mismo.

Baker, como teórico y lingüista, ha desarrollado un sistema visual que ha sido una poderosa herramienta de comunicación y lenguaje para Lindsay, Sara y otras muchas personas usuarias de comunicación aumentativa. No solo el uso de Minspeak reduce el conjunto de símbolos necesario y ahorra pulsaciones cuando se genera lenguaje, sino que también armoniza de forma natural con las necesidades de experiencia de lenguaje terapéutico para las persona dependientes de la comunicación aumentativa.

Lindsay está aprendiendo a crear un mapa cognitivo del lenguaje. Cuando mira un dibujo, está aumentando su habilidad para asociar una amplia serie de conceptos léxicos (ej., ¿Qué es esto?, ¿Qué hacemos con ello?, ¿A qué se empareja?, ¿Dónde se encuentra?, ¿De qué forma/color/tamaño es?, etc.) Este tipo de intervención se iguala a la misma intervención y técnicas de recuperación utilizadas con niños orales que tienen trastornos de comunicación y lenguaje.

Alguien podría preguntar, ¿porqué es importante tener un sistema de lenguaje visual que fomente el desarrollo del lenguaje?. La respuesta es bastante sencilla. Porque la mayoría de los usuarios de comunicación aumentativa tienen importantes déficits de lenguaje y vocabulario. El sistema visual utilizado tiene que hacer algo más que representar lo esencial del lenguaje. Debe fomentar el crecimiento y desarrollo. Cualquier otra cosa que no sea esto no obtiene el mejor rendimiento de la persona que depende de la comunicación aumentativa.

En resumen, ¿qué es Minspeak?. Minspeak es la utilización de dibujos de significado múltiple en secuencias pictográficas. Es una forma poderosa y natural de codificar el lenguaje. Es el único sistema visual utilizado por usuarios de comunicación aumentativa que, simultáneamente es eficaz, fomenta el procesamientos automático y se apoya, a través de sus propias estructuras, en el desarrollo del lenguaje. 

TECNUM AGILITY S.L. no se hace responsable de la información y demás contenidos integrados en espacios o páginas web de terceros accesibles desde TECNUM. En este sentido, la inclusión de un enlace no implica recomendación, por parte nuestra, de los productos o servicios que se anuncian o venden.


Condiciones generales

© TECNUM AGILITY S.L. C.I.F.
B-17791260 - Resolución mínima 800x600
Tecnum, ayudas tecnicas, discapacitados, catalogo de ayudas tecnicas, ayudas para discapacitados, ortopedias, sillas de ruedas, gruas de transferencia, bastones, antiescaras, sillas de ruedas electricas, sillas de baño, camas, abridores, abrelatas, domotica, rampas, caminadores, coches adaptados, scooters, elevadores, ordenadores, comunicadores, conmutadores, incontinencia, sujecion, barras, alarmas, reposapies