[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

[RFR] wml://devel/debian-accesibility/software.wml



#use wml::debian::template title="Debian-Accesibilidad - Software"
{#style#:<link rel="stylesheet" href="style.css" type="text/css" />:#style#}
#use wml::debian::translation-check translation="1.6" maintainer="Fernando Cerezal"

<define-tag a11y-pkg endtag=required>
<preserve name tag url/>
<set-var %attributes>
<h3><if "<get-var url>"
        <a href="<get-var url>" name="<get-var tag>"><get-var name></a>
      <a name="<get-var tag>"><get-var name></a>></h3>
  %body
<restore name tag url/>
</define-tag>

<h2><a id="speech-synthesis" name="speech-synthesis">Síntesis de voz y APIs relacionadas</a></h2>
<a11y-pkg name="EFlite" tag=eflite url="http://eflite.sourceforge.net/";>
<P>
  Un servidor de voz para <A href="#emacspeak">Emacspeak</A> y
  <A href="#yasr">yasr</A> (u otro lector de pantalla) que les 
  sirve de interfaz con <A href="#flite">Festival Lite</A>, un motor libre texto-a-voz
  desarrollado en el Centro de Voz de CMU como una ramificación de
  <A href="#festival">Festival</A>.
</P>
<P>
  Debido a limitaciones inherentes de su programa base, EFlite solo proporciona
  soporte para la lengua inglesa por el momento.
</P>
</a11y-pkg>
<a11y-pkg name="Festival Lite" tag=flite>
<P>
  Un pequeño motor de síntesis de voz rápido en tiempo de ejecución. Es la última
  incorporación al conjunto de herramientas de síntesis de software libre incluyendo
  el sistema de síntesis de voz de la Universidad de Edinburgo y
  el proyecto FestVox de la Universidad Carnegie Mellon, herramientas, scripts y 
  documentación para construir voces sintéticas. Sin embargo, flite por sí mismo
  no necesita ninguno de estos sistemas para funcionar.
</P>
<P>
  Actualmente solo soporta la lengua inglesa.
</P>
</a11y-pkg>
<a11y-pkg name="Festival" tag="festival"
          url="http://www.cstr.ed.ac.uk/projects/festival/";>
<P>
  Un sistema de síntesis de voz plurilingüe desarrollado
  en el <A href="http://www.cstr.ed.ac.uk/";>CSTR</A> «[<i>C</i>entre for
  <i>S</i>peech <i>T</i>echnology <i>R</i>esearch]» (Centro para la Investigación
  de Tecnología de Voz) de la
  <A href="http://www.ed.ac.uk/text.html";>Universidad de Edinburgo</A>.
</P>
<P>
  Festival ofrece un sistema texto a voz completo con varias APIs, así como
  un entorno de desarrollo e investigación de técnicas de síntesis de voz.
  Está escrito en C++ con un intérprete de órdenes basado en Scheme 
  para el control general.
</P>
<P>
  Además de la investigación en la síntesis de voz, festival es útil como un 
  programa de síntesis de voz autónomo. Es capaz de producir voz claramente
  comprensible a partir de texto.
</P>
</a11y-pkg>
<a11y-pkg name="recite" tag="recite">
<P>
  Recite es un programa para la síntesis de voz. La calidad del sonido que produce
  no es terriblemente buena, pero debería ser adecuada para informar verbalmente 
  de mensajes de error ocasionales.
</P>
<P>
  Dado algún texto en inglés, recite lo convertirá en una serie de fonemas,
  entonces se convierten los fonemas en una secuencia de parámetros vocales, y
  entonces la síntesis del sonido vocalmente le haría decir la frase.
  Recite puede desarrollar un subconjunto de estas operaciones, de forma que 
  se puede usar para convertir texto en fonemas, o producir una pronunciación 
  basada en los parámetros vocales calculados por otro programa.
</P>
</a11y-pkg>
<a11y-pkg name="Speech Dispatcher" tag="speech-dispatcher"
          url="http://www.freebsoft.org/speechd";>
<P>
  Proporciona un capa independiente de dispositivos para la síntesis de voz.
  Soporta varios sintetizadores de voz por «software» y «hardware» como
  base y proporciona una capa genérica para la síntesis de voz y
  reproducir datos PCM a las aplicaciones a través de aquellos programas base distintos.
</P>
<P>
  Varios conceptos de alto nivel como encolar vs. interrumpir la voz
  y configuraciones de usuario de aplicaciones específicas se implementan en 
  un dispositivo de forma independiente, por eso de liberar al programador de
  la aplicación de tener que reinventar la rueda de nuevo.
</P>
</a11y-pkg>

<H2><A name="i18nspeech">Síntesis de voz internacionalizada</A></H2>
<P>
Todas las soluciones libres para «software» basadas en la síntesis de voz 
disponibles actualmente parecen compartir una deficiencia común: La mayoría
están principalmente limitadas al inglés, proporcionando solo un soporte muy
marginal para otras lenguas, o en lo mayoría de los casos ninguno.
Entre todos los sintetizadores de voz de software libre para Linux, solo el
Festival de CMU soporta más de una lengua natural. el Festival de CMU puede 
sintetizar inglés, español y galés. No se soporta el alemán. No se soporta el
francés. No se soporta el ruso. Cuando la internacionalización y localización 
son las tendencias en el software y los servicios «web», ¿es razonable pedir
a la gente ciega interesada en Linux que aprendan inglés solo para entender
lo que dice su ordenador y llevar toda su correspondencia en una lengua 
extranjera?
</P>
<P>
Desafortunadamente, la síntesis de voz no es realmente el proyecto doméstico 
favorito de Jane Hacker. Crear un «software» sintetizador de 
voz inteligible conlleva tareas que consumen tiempo. La síntesis de voz
concatenativa requiere la cuidadosa creación de una base de datos de fonemas
que contengan todas las posibles combinaciones de sonidos de la lengua objetivo.
Las reglas que determinan las transformación de la representación en texto a 
fonemas individuales también se necesitan desarrollar con sumo cuidado,
normalmente requiere la división del flujo de caracteres en grupos lógicos como
oraciones, frases y palabras. Tal análisis léxico requiere un léxico específico
de la lengua raramente publicable bajo una licencia libre.
</P>
<P>
Una de las mayores promesas en los sistemas de síntesis de voz es Mbrola, con
bases de datos de fonemas para más de diez lenguas. Desafortunadamente, la licencia
elegida para el proyecto es muy restrictiva. Mbrola solo se puede distribuir 
como binario preconstruido. Además, las bases de datos de fonemas son solo
para uso no militar ni comercial. Nosotros contactamos con los desarrolladores 
del proyecto, pero no eran capaces de cambiar la licencia de su trabajo
debido al conjunto de limitaciones que pusieron varios contribuyentes. 
Desafortunadamente, dado el modelo de licencia restrictiva de Mbrola, no se 
puede usar como base para un trabajo mayor en esa dirección, al menos no en el
contexto del Sistema Operativo Debian.
</P>
<P>
Sin un «software» sintetizador de voz ampliamente plurilingüe, Linux
no puede ser aceptado por proveedores de tecnología de asistencia y gente
con discapacidades visuales. ¿Qué podemos hacer para mejorar esto?
</P>
<P>
Básicamente hay dos métodos posibles:
<P>
<OL>
<LI>Organizar un grupo de gente deseoso de ayudar en este asunto, e
intentar activamente mejorar la situación. Esto puede ser un poco complicado,
ya que se necesita un montón de conocimiento específico sobre síntesis de voz,
lo que no es que sea fácil si se hace de forma autodidacta. Sin embargo, esto no 
debería descorazonarle. Si piensa que puede motivar un grupo de gente lo 
suficientemente grande para alcanzar algunas mejoras, valdría la pena hacerlo.</LI>
<LI>Obtener fondos y contratar a algún instituto que ya tenga el conocimiento de 
como crear las bases de datos de fonemas necesarios, léxico y reglas de 
transformación. Este método tiene la ventaja de que tiene mayores probabilidades
de generar resultados de calidad, y también debería alcanzar algunas mejoras 
mucho antes que el primer método. Por supuesto, la licencia bajo la que se 
publicaría todo el trabajo resultante se debería acordar por adelantado, y 
debería pasar los requerimientos de las DFSG. La solución ideal sería por 
supuesto convencer a alguna universidad para sufragar tal proyecto con sus 
propios fondos, y contribuir con los resultados a la comunidad del Software Libre.</LI>
</OL>

<H2><A id="emacs" name="emacs">Extensiones de revisión de pantalla de Emacs</A></H2>
<a11y-pkg name="Emacspeak" tag="emacspeak"
          url="http://emacspeak.sourceforge.net/";>
<P>
  Un sistema de salida por voz que permitirá a cualquiera que no pueda ver 
  trabajar directamente en un sistema UNIX. Una vez inicie Emacs con
  Emacspeak cargado, obtendrá respuesta hablada para todo lo que haga. Su 
  rendimiento variará dependiendo de como de bien sepa usar Emacs. No hay nada que
  no pueda hacer en Emacs :-). Este paquete incluye servidores de voz escritos 
  en tcl para soportar los sintetizadores de voz DECtalk Express y DECtalk 
  MultiVoice. Para otros sintetizadores, busque paquetes separados de 
  servidores de voz como Emacspeak-ss o <A href="#eflite">eflite</A>.
</P>
</a11y-pkg>
<a11y-pkg name="speechd-el" tag="speechd-el"
          url="http://www.freebsoft.org/speechd-el";>
<P>
  Un cliente de Emacs y una biblioteca de Elisp para el
  <A href="#speech-dispatcher">expendedor de voz (speech-dispatcher)</A>. 
  Proporciona una compleja interfaz para Emacs, enfocado especialmente 
  (pero no limitado) a los usuarios ciegos o con daños visuales. Permite 
  al usuario trabajar con Emacs sin mirar la pantalla, usando la salida 
  de voz producida por los sintetizadores de voz soportados por el expendedor de voz.
</P>
</a11y-pkg>
<h2><a id="console" name="console">Lectores de consola (modo-texto)</a></h2>
<a11y-pkg name="BRLTTY" tag="brltty" url="http://mielke.cc/brltty/";>
<P>
  Un demonio que proporciona acceso a la consola de Linux para una persona 
  ciega usando un «software» para mostradores de braille.
  Maneja el terminal braille y proporciona funcionalidad para la revisión de la 
  pantalla completa.
</P>
<P>
  Los siguientes modelos de mostrado se soportan actualmente (en la versión 
  3.4.1-2):
</P>
  <UL>
   <LI>Alva (ABT3xx/Delphi)</LI>
   <LI>BrailleLite (18/40)</LI>
   <LI>BrailleNote (18/32)</LI>
   <LI>EcoBraille displays</LI>
   <LI>EuroBraille displays</LI>
   <LI>HandyTech (Bookworm/Braillino/Braille Wave/Braille Star 40/80)</LI>
   <LI>LogText 32</LI>
   <LI>MDV braille displays</LI>
   <LI>Papenmeier</LI>
   <LI>Tieman Voyager 44/70 (USB), CombiBraille, MiniBraille and MultiBraille</LI>
   <LI>TSI (PowerBraille/Navigator)</LI>
   <LI>Vario (Emul. 1 (40/80)/Emul. 2)</LI>
   <LI>Videobraille</LI>
   <LI>VisioBraille</LI>
  </UL>
<P>
  BRLTTY también proporciona una infraestructura basada en cliente/servidor
  para aplicaciones que deseen utilizar un dispositivo de mostrado en Braille.
  El proceso demonio escucha conexiones TCP/IP entrantes en un cierto puerto.
  Se proporciona en el paquete <A href="http://packages.debian.org/libbrlapi";>
  libbrlapi</A> una biblioteca de objetos compartidos para clientes. En el paquete
  se proporciona una biblioteca estática, archivos de encabezado y documentación.
  <A href="http://packages.debian.org/libbrlapi-dev";>libbrlapi-dev
  </A>. Esta funcionalidad la usa por ejemplo <A href="#gnopernicus">Gnopernicus
  </A> para proporcionar soporte a tipos de mostradores que aún no 
  soporta Gnopernicus directamente.
</P>
</a11y-pkg>
<a11y-pkg name="Screader" tag="screader"
          url="http://www.euronet.nl/~acj/eng-screader.html";>
<P>
  El programa lector de pantalla en segundo plano lee la pantalla y le pasa la 
  información a un paquete de «software» Texto-a-Voz (Como
  «<A href="#festival">festival</A>») o un sintetizador de voz por «hardware».
</P>
</a11y-pkg>
<a11y-pkg name="Speakup" tag="speakup"
          url="http://www.linux-speakup.org/speakup.html";>
<P>
  El paquete del núcleo
  <A href="http://packages.debian.org/kernel-image-2.4.24-speakup";>kernel-image-2.4.24-speakup</A>
  contiene un núcleo Linux parcheado con speakup, un lector de pantalla para
  la consola de Linux. La propiedad especial de speakup es que se ejecuta en
  espacio de núcleo, lo que proporciona un acceso a un nivel del sistema un 
  poco más bajo que lo que pueden proporcionar otros lectores de pantalla.
  Speakup puede, por ejemplo, leerle mensajes críticos del núcleo en el 
  punto donde el núcleo ya está colapsado, y no hay programa de espacio de 
  usuario que pueda hacer nada útil ya.
</P>
<P>
  Speakup soporta actualmente los siguientes sintetizadores de voz por «hardware»:
</P>
  <UL>
   <LI>DoubleTalk PC/LT</LI>
   <LI>LiteTalk</LI>
   <LI>Accent PC/SA</LI>
   <LI>Speakout</LI>
   <LI>Artic Transport</LI>
   <LI>Audapter</LI>
   <LI>Braille 'N Speak / Type 'N Speak</LI>
   <LI>Dectalk External y Express</LI>
   <LI>the Apollo2</LI>
  </UL>
</a11y-pkg>
<a11y-pkg name="Yasr" tag="yasr" url="http://yasr.sourceforge.net/";>
<P>
  Un lector de pantalla de consola de propósito general para GNU/Linux y
  otros sistemas operativos como Unix. El nombre «yasr» es un acrónimo que
  se puede interpretar tanto como «Yet Another Screen Reader» (Aún otro 
  lector de consola) o «Your All-purpose Screen Reader» (Su lector de 
  consola para cualquier propósito).
</P>
<P>
  Actualmente, yasr intenta soportar los sintetizadores por «hardware»
  Speak-out, DEC-talk, BNS, Apollo y DoubleTalk. También puede comunicarse
  con servidores de voz Emacspeak y así ser usado con sintetizadores que no
  soporte directamente, como <A href="#flite">Festival Lite</A> (a través 
  de <A href="#eflite">eflite</A>) o FreeTTS.
</P>
<P>
  Yasr funciona abriendo un pseudoterminal y ejecutando una consola, interceptando
  todos los datos que entran y salen. Mira las secuencias de escape que se 
  envían y mantiene una «ventana» virtual que contiene lo que cree que está en 
  la pantalla. De esta manera no usa ninguna característica específica de Linux 
  y se puede migrar a otros sistemas operativos tipo UNIX sin demasiados problemas.
</P>
</a11y-pkg>
<H2><A id="gui" name="gui">Interfaces gráficas de usuario</A></H2>
<P>
La accesibilidad de las interfaces gráficas de usuarios solo ha recibido un 
giro significativo recientemente con los variados trabajos de desarrollo
en el <A href="http://www.gnome.org/";>Escritorio GNOME</A>, especialmente el
<A href="http://developer.gnome.org/projects/gap/";>Proyecto de accesibilidad de GNOME</A>.
</P>
<H2><A id="gnome" name="gnome">«Software» de accesibilidad en GNOME</A></H2>
<a11y-pkg name="Assistive Technology Service Provider Interface" tag="at-spi">
<P>
  Este paquete contiene los componentes centrales de accesibilidad de GNOME.
  Permite a los distribuidores de tecnología de asistencia como lectores de 
  pantalla pedir a todas las aplicaciones que se estén ejecutando en el 
  escritorio información relativa a accesibilidad así como proporciona 
  mecanismos de enlace para soportar otros conjuntos de herramientas 
  distintos a GTK.
</P>
</a11y-pkg>
<a11y-pkg name="The ATK accessibility toolkit" tag="atk">
<P>
  ATK es un conjunto de herramientas que proporcionan interfaces de accesibilidad
  para aplicaciones u otros conjuntos de herramientas. Implementando estas 
  interfaces, esos otros conjuntos de herramientas o aplicaciones se pueden usar 
  con herramientas como lectores de pantalla, ampliadores, y otros 
  dispositivos de entrada alternativos.
</P>
<P>
  La parte que se ejecuta de ATK, que se necesita para ejecutar aplicaciones
  construidos con ello, está disponible en el paquete 
  <A href="http://packages.debian.org/libatk1.0-0";>libatk1.0-0</a>.
  Los archivos de desarrollo de ATK, que se necesita para la compilación de
  programas o conjuntos de herramientas que que lo usan, se proporcionan en
  el paquete <A href="http://packages.debian.org/libatk1.0-dev";>libatk1.0-dev</A>.
</P>
</a11y-pkg>
<a11y-pkg name="gnome-speech" tag="gnome-speech">
<P>
  La biblioteca GNOME Speech proporciona una API general aunque simple para 
  programas para convertir texto en voz, así como entrada de voz.
</P>
<P>
  Se soportan múltiples programas base, pero actualmente solo el programa base
  <A href="#festival">Festival</A> está habilitado en este paquete; los
  otros requieren algún «software» Java o propietario.
</P>
</a11y-pkg>
<a11y-pkg name="Gnopernicus" tag="gnopernicus"
          url="http://www.baum.ro/gnopernicus.html";>
<P>
  Gnopernicus está diseñado para permitir a los usuarios con visión limitada o 
  ciegos acceder a aplicaciones GNOME. Proporciona un número de funciones, 
  incluyendo ampliación, seguimiento de enfoque, salida de braille y más.
</P>
</a11y-pkg>
<H2><A id="input" name="input">Métodos de entrada de datos no estándar</A></H2>
<a11y-pkg name="Dasher" tag="dasher" url="http://www.inference.phy.cam.ac.uk/dasher/";>
<P>
  Dasher es un interfaz de entrada de texto eficiente en cuanto a información, manejado
  por acciones naturales de señalado continuas. Dasher es un sistema de entrada 
  competitivo donde sea que no se pueda usar un teclado completo - por ejemplo,
</P>
  <UL>
   <LI>un ordenador de mano («palmtop»)</LI>
   <LI>un ordenador de viaje</LI>
   <LI>cuando utilice un ordenador con una mano, por ejemplo un mando de juego, pantalla táctil,
       mando por bola o ratón</LI>
   <LI>cuando utilice un ordenador sin manos (i.e., por ratón para la cabeza o rastreador del ojo).</LI>
  </UL>
<P>
  La versión de seguimiento del ojo de Dasher permite a un usuario experimentado escribir texto tan 
  rápido como una escritura manual normal - 25 palabras por minuto; usando un ratón,
  los usuarios experimentados pueden escribir a 39 palabras por minuto.
</P>
<P>
  Dasher utiliza un algortimo de predicción de texto más avanzado que el T9(tm)
  que se usa a veces en los teléfonos móviles, haciéndolo sensible al contexto circundante.
</P>
</a11y-pkg>
<a11y-pkg name="GOK" tag="gok" url="http://www.gok.ca/";>
<P>
  GOK [<i>G</i>NOME <i>O</i>nscreen <i>K</i>eyboard (Teclado en pantalla de GNOME)] 
  es un teclado en pantalla dinámico para sistemas operativos UNIX y otros como UNIX.
  Ofrece selección directa, selección por detención, métodos de acceso de escaneo
  automático y escaneo inverso e incluye completado de palabra.
</P>
<P>
  GOK incluye un teclado alfanumérico y un teclado para lanzar aplicaciones. Los
  teclados están especificados en XML posibilitando que se modifiquen los teclados 
  existentes y se creen teclados nuevos. Los métodos de acceso también se 
  especifican en XML proporcionando la capacidad de modificar los métodos 
  existentes y crear nuevos.
</P>
</a11y-pkg>

Reply to: