Venres 29 Marzo 2024

Una nueva herramienta de software libre agiliza textos y documentos en la web

Un equipo de investigadores de la Universidad de Santiago de Compostela, formado por expertos en las áreas de Computación de Altas Prestaciones (HPC) y Procesamiento de Lenguaje Natural (PLN), ha conseguido desarrollar una herramienta que permite adaptar automáticamente aplicaciones utilizadas en el ámbito del procesamiento de textos y documentos a modelos de computación paralela compatibles con clústeres multi-core, lo que reducirá notablemente los tiempos de ejecución y permitirá trabajar con volúmenes de datos muy superiores a los que se manejan en la actualidad.

La ingente cantidad de información que se incorpora diariamente a Internet no para de aumentar. Se estima que en sólo 24 horas generamos cerca de 2,5 trillones de bytes (2,5 Exabytes), o lo que es lo mismo: cerca de 27 GB por segundo, el equivalente a una temporada completa de Juego de Tronos en Alta Definición (HD). Para comprender la magnitud de la cifra, basta con señalar que el 90% de los datos disponibles actualmente en todo el mundo han sido creados apenas a lo largo de los dos últimos años.

Publicidade

‘Perldoop’ se publica bajo licencia de software para llegar al mayor número de usuarios

De esta enorme cantidad de datos (agrupados bajo el anglicismo Big Data), sólo el 5% se puede considerar información estructurada; el 95% restante (que está compuesto por textos, principalmente) no cuenta con ningún tipo de organización ni estructura, lo que representa un serio problema a la hora de acceder y gestionar toda la información disponible.

El trabajo realizado por los investigadores del Centro Singuar de Investigación en Tecnoloxías da Invormación (CiTIUS) facilitará esta labor, ya que los resultados obtenidos harán posible el análisis de los datos de una forma más sencilla y eficiente. Su propuesta se ha basado en el diseño de un nuevo sistema que permite transformar el software usado para el Procesamiento del Lenguaje Natural (habitualmente programado en el lenguaje informático Perl, y ejecutado de manera secuencial) en una solución compatible con las tecnologías Big Data.

La herramienta se podrá aplicar a la traducción automática, análisis de blogs o procesado de datos genéticos

Con sólo introducir unas etiquetas en la aplicación original, esta herramienta de traducción permite al programador convertir automáticamente todo su código Perl en código Java adaptado al paradigma MapReduce, habilitándolo así para su ejecución en un clúster (es decir, permitiendo su ejecución simultánea en múltiples cores o nodos de computación). De esta forma, se logra multiplicar la velocidad de cómputo por un factor proporcional al número de procesadores disponibles (por ejemplo: si se dispone de 1000 procesadores, el código resultante será, en el caso ideal, aproximadamente 1000 veces más eficiente que la solución secuencial).

Otra característica reseñable de esta investigación, que ha dado lugar a la herramienta de traducción Perldoop, es que los resultados se han hecho públicos bajo una licencia de software libre, con el objetivo de que esté a disposición del mayor número posible de usuarios y profesionales. Como explica el profesor Juan Carlos Pichel, investigador principal y responsable del proyecto, la decisión se tomó porque “el desarrollo de soluciones Big Data para el Procesamiento de Lenguaje Natural(PLN) sólo está, en este momento, al alcance de las compañías más potentes”. Con la solución propuesta, y unos conocimientos mínimos de programación, será posible convertir cualquier código programado en lenguaje Perl a una solución capaz de funcionar en un clúster de computación.

Entre las principales ventajas de esta nueva solución destaca especialmente su versatilidad, ya que se trata de una herramienta de propósito general; gracias a ello, podrán beneficiarse aplicaciones de ámbitos tan diversos como la traducción automática, el análisis de información en blogs, o incluso el procesado de datos genéticos.

DEIXAR UNHA RESPOSTA

Please enter your comment!
Please enter your name here

Este sitio emprega Akismet para reducir o spam. Aprende como se procesan os datos dos teus comentarios.

Relacionadas

00:05:35

É a intelixencia artificial unha ameaza para a humanidade?

O frenesí dos últimos anos leva a moitos a preguntarse polo verdadeiro alcance dunha revolución con riscos, pero con moitos beneficios se se seguen as normas

Unha campaña de doazón de voz recollerá as variedades fonéticas e dialectais de Galicia

O obxectivo é acadar as máis de 1.000 horas de gravación precisas para que dispositivos como Siri, Alexa ou Google recoñezan as distintas cadencias lingüísticas

LIA (2), pioneiros galegos no desenvolvemento da intelixencia artificial na astronomía

O grupo da UDC recibiu o Premio Spin-Off PuntoGal na edición 2023 pola súa traxectoria de éxito

Ana Kiro ‘revive’ para representar a Galicia na Eurovisión da intelixencia artificial

Un grupo multidisciplinar presenta a delegación galega do festival, que terá lugar o 4 de novembro na Coruña