<?xml version="1.0" encoding="UTF-8"?><feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>Tesis de Postgrado (Facultad de Ingeniería)</title>
<link href="http://www.saber.ula.ve/handle/123456789/2173" rel="alternate"/>
<subtitle/>
<id>http://www.saber.ula.ve/handle/123456789/2173</id>
<updated>2026-04-26T11:36:29Z</updated>
<dc:date>2026-04-26T11:36:29Z</dc:date>
<entry>
<title>Gestión eficiente de los convertidores de potencia conectados al bus dc de una microrred híbrida de generación distribuida</title>
<link href="http://www.saber.ula.ve/handle/123456789/45743" rel="alternate"/>
<author>
<name>Salas Puente, Robert</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/45743</id>
<updated>2019-04-29T16:18:43Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Gestión eficiente de los convertidores de potencia conectados al bus dc de una microrred híbrida de generación distribuida
Salas Puente, Robert
Dos aspectos críticos en la operación de una microrred son las estrategias de control y gestión de potencia implementadas, las cuales son esenciales para proporcionar su buen funcionamiento. La aplicación adecuada de dichas estrategias permite compensar los desequilibrios de potencia causados por la discontinuidad de la generación y de la demanda de energía en las microrredes. En este sentido, el objetivo global de estas estrategias de gestión es equilibrar adecuadamente el flujo de potencia en la microrred, mediante la aplicación de diferentes algoritmos que permiten cumplir con los criterios de estabilidad, protección, balance de potencia, transiciones, sincronización con la red y gestión adecuada de la microrred. En el caso de microrredes de pequeña escala de potencia con bajo número de generadores y sistemas de almacenamiento distribuidos, las estrategias de control centralizado ofrecen un alto nivel de flexibilidad para lograr funcionalidades avanzadas en la microrred y una adecuada distribución de la potencia entre los convertidores que la conforman. Esta tesis se ha enmarcado en el contexto de algoritmos de gestión centralizada de potencia de una microrred de generación distribuida en modo conectado a red. Los algoritmos presentados se pueden aplicar a los convertidores de potencia conectados al bus DC de una microrred AC/DC híbrida o en una microrred de DC, donde el despacho de potencia es observado y gestionado por un controlador central. Este último adquiere datos del sistema mediante una infraestructura de comunicaciones y estima la potencia que gestionará cada uno de los convertidores de potencia, sistemas de almacenamiento y cargas en funcionamiento.&#13;
En este estudio se muestra la validación experimental de las estrategias de gestión aplicadas en la microrred desde el enfoque del comportamiento de los convertidores de potencia, de las baterías y las cargas ante dicha gestión. Se verifica la estabilidad de la microrred sometiendo a los convertidores a diferentes escenarios de funcionamiento. Estos escenarios pueden ser fluctuaciones en la irradiación, la demanda, el estado de carga de las baterías, los límites máximos de exportación/importación de potencia desde/hacia la microrred hacia/desde la red principal y de la tarifa eléctrica. Adicionalmente, se propone un sistema de almacenamiento de energía en baterías encargado de mantener el equilibrio de potencia en el bus de DC de la microrred que permite aprovechar las fuentes de generación renovables presentes en la microrred y maximizar el tiempo de servicio de las baterías mediante la aplicación de un algoritmo de carga de las baterías. Este último se ajusta al procedimiento de carga especificado por el fabricante, estableciendo las tasas de carga en función de los escenarios en que la microrred se encuentre. El procedimiento de carga en las baterías es fundamental para garantizar las condiciones adecuadas de operación de las mismas, ya que toman en consideración los parámetros establecidos por el fabricante, como son: tasas de carga/descarga, tensión máxima de carga, temperaturas de operación, etc…
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Diseño de un Inversor multifuncional para la conexión del bus DC con el bus AC de una Microrred Híbrida de Generación Distribuida</title>
<link href="http://www.saber.ula.ve/handle/123456789/45398" rel="alternate"/>
<author>
<name>Salas Puente, Robert</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/45398</id>
<updated>2018-11-22T23:17:11Z</updated>
<published>2015-01-01T00:00:00Z</published>
<summary type="text">Diseño de un Inversor multifuncional para la conexión del bus DC con el bus AC de una Microrred Híbrida de Generación Distribuida
Salas Puente, Robert
El propósito general de este trabajo, es el diseño y construcción de un Inversor multifuncional de 10kW, para la conexión del bus DC con el bus AC de una Microrred híbrida de Generación Distribuida (GD), para este objetivo, se realizó en principio un estudio teórico previo de los tipos de Microrredes Eléctricas, filtros activos de potencia (FAP) y de la GD, se estudiaron los lazos de control de corriente y tensión de los inversores con el fin de utilizar los filtros SOGI (Second Order Generalized Integrator), como bloques de control adaptativo, capaces de dar una ganancia muy alta, a una frecuencia sintonizada por un PLL (Phase Locked Loop) que trabaja a partir de la red eléctrica. En segundo lugar, se realizó el diseño de todas las etapas electrónicas y de control del Inversor de Interconexión, y se validó el diseño mediante algunas herramientas de simulación por ordenador. Se fabricaron las tarjetas electrónicas del Inversor, para ello se diseñó la etapa de potencia, circuitos de disparo, circuitos de alimentación y medición, protecciones e interface con el procesador de control de la Microrred (PCMred). Se realizó la programación del procesador digital de señales (DSP) TMS320F28335, y las estructuras de control digital en lenguaje C. Por último, se construyó un prototipo de un Inversor multifuncional de 10kW, para la conexión del bus DC con el bus AC, mediante el cual, se ha realizado las pruebas experimentales.
</summary>
<dc:date>2015-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Escaneo de Redes IEEE 802.11: Un enfoque práctico para la Internet del Futuro</title>
<link href="http://www.saber.ula.ve/handle/123456789/44355" rel="alternate"/>
<author>
<name>Araujo Brett, Antonio</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/44355</id>
<updated>2018-03-14T00:08:25Z</updated>
<published>2016-03-01T00:00:00Z</published>
<summary type="text">Escaneo de Redes IEEE 802.11: Un enfoque práctico para la Internet del Futuro
Araujo Brett, Antonio
Las redes IEEE 802.11 constituyen actualmente una de las opciones más
populares para tener acceso inalámbrico a la Internet. Debido a su auge, los
dispositivos en despliegues cada vez más amplios, heterogéneos y caóticos
tienen que cumplir con un proceso de descubrimiento y conexión complejo,
probando activamente todos los canales en la banda ISM. Esto con el
fin de obtener información de todos los puntos de acceso que le permitan
posteriormente asociarse a una red.
El estándar IEEE 802.11 no especifica ningún método para escanear los
canales en la búsqueda de redes alcanzables. En este sentido, este trabajo
describe un enfoque práctico para el descubrimiento de redes IEEE 802.11
en el contexto de la Internet del futuro. En primer lugar, se presenta el
diseño y construcción de un sniffer de redes IEEE 802.11 que puede escuchar,
simultáneamente, a los 11 canales de la banda ISM. Con este sniffer,
hacemos ingeniería inversa de los algoritmos de escaneo implementados en
dispositivos móviles con interfaces IEEE 802.11. En segundo lugar, se discute
a partir de una técnica de inteligencia computacional, un enfoque para
encontrar la configuración de secuencias de escaneo óptimas en redes IEEE
802.11 espontáneas. Hemos abordado el problema usando la optimización
multi-objetivo, es decir, el compromiso entre una tasa alta de descubrimiento
de puntos de acceso y la duración del proceso de escaneo. El algoritmo
cultural se implementó en código abierto y se apoya en un emulador de escaneo
basado en una extensa campaña de mediciones experimentales. Los
resultados de la aplicación del algoritmo cultural arrojaron secuencias de escaneo
que proporcionan mejoras en el desempeño de la búsqueda entre un
230% y 600% con respecto a una gama de dispositivos tipificados a partir
del sniffer multicanal. Finalmente, y de manera prospectiva, se presenta un
bosquejo de un sistema de descubrimiento asistido e inteligente. A través de
este sistema, se derivan secuencias de escaneo óptimas en redes de acceso 
comunitario, que permitan a los dispositivos inalámbricos encontrar los puntos
de acceso disponibles y eventualmente, asociarse a estas redes de una manera
eficiente.
</summary>
<dc:date>2016-03-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Análisis comparativo de la calidad en aplicaciones de emulación de redes inalámbricas definidas por software, utilizando el modelo de estimación de proyectos en entornos de incertidumbre.</title>
<link href="http://www.saber.ula.ve/handle/123456789/43387" rel="alternate"/>
<author>
<name>Duarte Prieto, Gerlyn Eduardo</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/43387</id>
<updated>2018-03-15T07:47:00Z</updated>
<published>2016-06-01T00:00:00Z</published>
<summary type="text">Análisis comparativo de la calidad en aplicaciones de emulación de redes inalámbricas definidas por software, utilizando el modelo de estimación de proyectos en entornos de incertidumbre.
Duarte Prieto, Gerlyn Eduardo
Las redes definidas por software(SDN=Software Defined Network) son una arquitectura emergente de redes de telecomunicaciones, destacándose como una tecnología capaz de ofrecer un control más flexible y dinámico a la hora de gestionar el diseño y funciones de la red, donde se separan los planos de control y enrutamiento. Esto permite la centralización de los controles de la red basada en software. Se puede decir que es posible tener flexibilidad y rapidez al momento de configurar, implementar y administrar diferentes protocolos personalizados para los requerimientos de distintas redes. Actualmente, en una red convencional, cada conmutador y/o enrutador tienen un software propietario que le dice qué actividad ejecutar. Generalmente los análisis y puesta en práctica de redes SDN se
centra principalmente en la parte cableada de la red de datos. Sin embargo, todas las ventajas de las SDN sólo se obtienen si se logra abarcar la totalidad de la infraestructura, desde el centro de datos al
extremo de la red, permitiendo extender todos los beneficios de SDN hasta la red inalámbrica, para conseguir a su vez una red inalámbrica de área local definida por software (SDWN=Software Define Wireless Networks). En este trabajo se evaluó la calidad del producto software de forma cuantitativa de dos programas desarrollados bajo fuentes abiertas denominados OpenNet y Mininet-WiFi, los cuales permiten emular y/o simular una SDWN. La evaluación de la calidad interna/externa y de uso del producto software de estos programas se apoyó en el conjunto de normas ISO/IEC 25000. Estas
normas definen las categorías y subcategorías de calidad de forma cualitativa, pero no especifican un método estándar específico para realizar la evaluación. Para resolver esto se utilizó un modelo basado en lógica difusa denominado Modelo de Estimación de Proyectos en Entornos de Incertidumbre
(EPCU=Estimation of Projects in Contexts of Uncertainty), lo que permitió determinar de manera formal y bajo criterios consistentes y repetibles, cual software es el que tiene mayor índice de calidad de producto. Adicionalmente se determinó la estimación de la experiencia de usuario (UX=User eXperience) con la intención de interrelacionarla con la usabilidad del producto software, utilizándola como un nuevo valor de entrada en la determinación de la calidad de uso del modelo EPCU. Por otra
parte se efectuaron emulaciones de redes inalámbricas definidas por software de diferentes topologías permitiendo analizar la movilidad de los dispositivos emulados. De igual forma se ejecutaron mediciones del ancho de banda de las SDWN emuladas, así como la interconectividad entre ellas. Se evidenció la facilidad y el rendimiento de trabajar con las herramientas de emulación de SDWN estudiadas. Se comprobó que los emuladores, permiten interactuar y ejecutar cualquier proceso como si se ejecutara directamente en un equipo con GNU/Linux de forma eficaz.
</summary>
<dc:date>2016-06-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Estudio del descubrimiento de topologías espontáneas en redes 802.11</title>
<link href="http://www.saber.ula.ve/handle/123456789/39045" rel="alternate"/>
<author>
<name>Molina Troconis, Laudin</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/39045</id>
<updated>2018-03-14T00:08:53Z</updated>
<published>2014-09-25T13:16:54Z</published>
<summary type="text">Estudio del descubrimiento de topologías espontáneas en redes 802.11
Molina Troconis, Laudin
Las redes bajo el estándar IEEE 802.11 son la tecnología de acceso inalámbrico más popular hoy día, con grandes despliegues en los principales centros urbanos del mundo, los cuales son realizados en forma descentralizada, resultando en topologías irregulares y con altas densidades. Esto incrementa la complejidad del proceso que permite que una estación móvil conozca las redes disponibles en un entorno, denominado descubrimiento de redes. En este trabajo, se describe una metodología para caracterización de redes IEEE 802.11, haciendo énfasis en la medición del tiempo de respuesta de los puntos de acceso (AP: Access Points). El método registra, en el kernel, el intercambio de tramas Probe Request | Probe Response, así como los Beacons transmitidos por la estación móvil y los AP. Haciendo uso de este método, se presenta una descripción del despliegue encontrado en la ciudad de Rennes, Francia, que se considera espontáneo. Así mismo, también se analiza el proceso de descubrimiento en entornos desplegados de manera espontánea. Los estudios realizados indican que es posible descubrir m as de 75 redes en una localización, donde las estrategias de escaneo activo tradicionales, orientadas a escenarios de baja escala, solo son capaces de descubrir una fracción del total. Con objeto de descubrir la topología completa se necesitan los resultados parciales de múltiples y secuenciales escaneos, lo que plantea la necesidad de un sistema centralizado que asista el proceso de descubrimiento, almacenando información sobre la topología presente en las distintas zonas de un despliegue.
</summary>
<dc:date>2014-09-25T13:16:54Z</dc:date>
</entry>
<entry>
<title>Técnicas de aprendizaje artificial aplicadas al problema inverso de la síntesis articulatoria de voz por computadora</title>
<link href="http://www.saber.ula.ve/handle/123456789/34662" rel="alternate"/>
<author>
<name>Brito B., José A.</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/34662</id>
<updated>2018-03-14T00:08:53Z</updated>
<published>2012-03-13T20:34:30Z</published>
<summary type="text">Técnicas de aprendizaje artificial aplicadas al problema inverso de la síntesis articulatoria de voz por computadora
Brito B., José A.
</summary>
<dc:date>2012-03-13T20:34:30Z</dc:date>
</entry>
<entry>
<title>Identificación de señales verbales en el espacio de fase reconstruido</title>
<link href="http://www.saber.ula.ve/handle/123456789/34661" rel="alternate"/>
<author>
<name>Brito B., José A.</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/34661</id>
<updated>2018-03-14T00:08:52Z</updated>
<published>2012-03-13T20:21:59Z</published>
<summary type="text">Identificación de señales verbales en el espacio de fase reconstruido
Brito B., José A.
</summary>
<dc:date>2012-03-13T20:21:59Z</dc:date>
</entry>
<entry>
<title>Análisis y diseño sísmico por desempeño de edificios de muros estructurales</title>
<link href="http://www.saber.ula.ve/handle/123456789/34216" rel="alternate"/>
<author>
<name>Monsalve Dávila, Jazmín T.</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/34216</id>
<updated>2018-03-14T00:09:17Z</updated>
<published>2005-04-01T00:00:00Z</published>
<summary type="text">Análisis y diseño sísmico por desempeño de edificios de muros estructurales
Monsalve Dávila, Jazmín T.
En este trabajo se elaboró una herramienta computacional para el análisis y
diseño sísmico por desempeño de edificios construidos con muros estructurales, basada
en un análisis estático no lineal, partiendo de los conceptos básicos del método de
análisis de los desplazamientos y considerando la tipología presentada por Lamar
(1978), quien identifica las expresiones para la rigidez de cada muro estructural
sometido a cualquier estado de fuerzas sísmicas, tomando en cuenta la rigidez axial, la
rigidez a flexión y la rigidez torsional, caracterizadas por los esfuerzos derivados
mediante los desplazamientos provocados por dicho estado de fuerzas. En este trabajo
se le agrega a la rigidez del muro el efecto de corte que no fue tomado en cuenta en la
formulación mencionada, debido a que en una estructura compuesta por muros
estructurales es importante el efecto de la fuerza cortante en su comportamiento
estructural.
El método estático no lineal utilizado, consiste en determinar la curva de
capacidad de la estructura aplicando la técnica del “Pushover”, aplicando patrones
predeterminados de cargas laterales a la estructura. Estas cargas laterales se aplican en
forma estática y se incrementan paso a paso hasta que se alcanza el desplazamiento de
comportamiento en un punto característico, en este caso en el techo del edificio (δt),
demandado por el sismo ó hasta que la estructura presente un mecanismo de falla. Las
cargas laterales se determinan mediante la aplicación de la Norma Antisísmica
COVENIN 1756-01.
El enfoque del diseño por desempeño de los muros está basado en tres diferentes
niveles de desempeño presentados por Priestley y Kowalsky (1998): ocupación
inmediata (sin daño en los elementos estructurales), control de daño (daño reparable de
la estructura) y protección a la vida (estabilidad ante cargas verticales de modo que
existan rutas de evacuación). El diseño final de los muros estructurales es basado por la
Norma Venezolana COVENIN-MINDUR 1753-85, y por expresiones de otros
investigadores en el área.
El lenguaje de programación que se utilizó fue FORTRAN 90, el cual permitió
una programación modular y estructurada del problema planteado.
</summary>
<dc:date>2005-04-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Implantación y validación del modelo organizacional y de gestión de formación flexible basada en entornos tecnológicos para la Universidad de Los Andes</title>
<link href="http://www.saber.ula.ve/handle/123456789/33749" rel="alternate"/>
<author>
<name>Sandia, Beatriz E.</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33749</id>
<updated>2018-03-14T00:08:51Z</updated>
<published>2011-09-20T14:44:23Z</published>
<summary type="text">Implantación y validación del modelo organizacional y de gestión de formación flexible basada en entornos tecnológicos para la Universidad de Los Andes
Sandia, Beatriz E.
La incorporación de las Tecnologías de Información y Comunicación (TIC) implica un cambio radical en la visión que se tiene del proceso educativo, además de un cambio en el modelo organizacional de la institución académica. Esto necesariamente lleva a una redefinición, reorganización y planificación de los procesos educativos y de las instituciones encargadas de estos procesos. En la Universidad de Los Andes (ULA), se ha definido un modelo organizacional y de gestión de formación flexible basada en entornos tecnológicos para la incorporación de las TIC en el proceso educativo y la oferta de programas de formación virtual. Este modelo se fundamenta en los conceptos de gobernabilidad moderna, en los que se prevé una organización relacional, en la que se combinan las relaciones lineales de autoridad directa con las de consulta y asesoramiento con las distintas unidades que conforman la organización, así como en la distribución de tareas por procesos (Sandia, 2007). El presente trabajo plantea la implantación y validación del modelo señalado, a través del análisis de los procesos de implantación que permita medir la calidad de sus servicios para mantener una mejora continua en los mismos. Además, verificar si los cambios estratégicos y nuevos modos de dirección y gestión generados son más eficaces y eficientes y si promueven ventajas competitivas para la Institución. Esta investigación se sustenta en el enfoque de la Investigación - Acción, en la evaluación de la calidad de los procesos basada en el Modelo CMMI (Capability Maturity Model Integration) de Servicios y en la aplicación de las técnicas estadísticas de análisis factorial y componentes principales. Se presenta un modelo de gestión de calidad para la organización.
</summary>
<dc:date>2011-09-20T14:44:23Z</dc:date>
</entry>
<entry>
<title>Un modelo genérico para la integración de aplicaciones heterogéneas en la actualización de procesos continuos basados en objetivos/reglas de negocios y en agentes de software</title>
<link href="http://www.saber.ula.ve/handle/123456789/33300" rel="alternate"/>
<author>
<name>Coa Rabelo, Malinda del V.</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33300</id>
<updated>2018-03-14T00:07:37Z</updated>
<published>2011-06-09T17:56:37Z</published>
<summary type="text">Un modelo genérico para la integración de aplicaciones heterogéneas en la actualización de procesos continuos basados en objetivos/reglas de negocios y en agentes de software
Coa Rabelo, Malinda del V.
En la evolución de la automatización de los sistemas de producción, las empresas han desarrollado o adquirido aplicaciones del software especializadas para el soporte  del manejo de la información de los diferentes procesos productivos y de gestión. Puesto que muchas de las arquitecturas de aplicaciones casi todas heterogéneos, que aíslan la información necesaria para el proceso de tomas de decisiones 

Actualmente, los agentes de software constituyen una opción en la solución de integración (incluyendo las de aplicaciones de software). Pues ellos exhiben características de sistemas robustos y flexibles que pueden decidir sobre  por si mismo que hacer para logar los objetivos par los que fueron diseñados  

El objetivo de este trabajo de investigaciones es el de proponer  una arquitectura que permita que las aplicaciones de un complejo de producción continua (CPC). Aun siendo heterogéneas, “conversen” tren si y puedan compartir información. Este objetivo se ha logrado mediante una arquitectura basada  en agente, quien representa las unidades de producción que forman un CPC. Dicho agente, son responsables de la investigación apoyada en reglas de negocios, que refleja la lógica negocios en los objetivos de negocio quien se utiliza para ejecutar dicha lógica 

La arquitectura de agente integrado corresponde a la de un agente hibrido, el refleja características reactivas-antes los cambios de su entorno- y deliberativas – razonando a través de su maquina de inferencia -; como un primera aproximación, el agente integrado es modelo como un sistema Experto, dada la compatibilidad de características entre ambos sistemas 

Con el fin de probar las teorías y arquitecturas propuestas, se implanto un propósito de naturaleza genérica, que muestra la posibilidad de construcción de estos sistemas integrados como parte del proceso de automatización
</summary>
<dc:date>2011-06-09T17:56:37Z</dc:date>
</entry>
<entry>
<title>Una técnica para la extracción automática de resúmenes basada en una gramática de estilo</title>
<link href="http://www.saber.ula.ve/handle/123456789/33294" rel="alternate"/>
<author>
<name>Contreras Zambrano, Hilda Yelitza</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33294</id>
<updated>2018-03-14T00:07:36Z</updated>
<published>2011-06-08T16:17:56Z</published>
<summary type="text">Una técnica para la extracción automática de resúmenes basada en una gramática de estilo
Contreras Zambrano, Hilda Yelitza
Este documento presenta un experimento lingüístico que consiste en resumir textos escritos en español. El resumen es realizado con una herramienta computacional que aplica técnicas simbólicas basadas en una “gramática de estilos”. Esta gramática modela las reglas de estilo para la escritura propuestas por Williams (1990). El programa puede obtener desde los tópicos de las oraciones de cada párrafo y reconocer elementos sintáctico-estructurales de cohesión y coherencia textual, hasta los tópicos más importantes del párrafo. Estos resultados son aprovechados para construir un resumen con oraciones asociadas a dichos tópicos. Esta versión de nuestro resumidor muestra cómo sobre la base de reglas lógicas para definir estilos y “tópicos” se pueden obtener resúmenes de textos “aceptables” por evaluadores humanos. Con esto se sugiere que aplicando estos modelos podemos obtener resultados reduciendo la complejidad del tradicional procesamiento morfológico, sintáctico y semántico. Para finalizar se realiza una descripción de las estrategias planteadas para extender y continuar este proyecto.
</summary>
<dc:date>2011-06-08T16:17:56Z</dc:date>
</entry>
<entry>
<title>Método para el desarrollo de servicios Web</title>
<link href="http://www.saber.ula.ve/handle/123456789/33293" rel="alternate"/>
<author>
<name>Díaz, Zulma</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33293</id>
<updated>2018-03-14T00:07:37Z</updated>
<published>2011-06-08T16:14:22Z</published>
<summary type="text">Método para el desarrollo de servicios Web
Díaz, Zulma
Los Servicios Web (SW) representan una oportunidad de alcanzar la interoperabilidad de los sistemas actuales. Ellos permiten que se continúe utilizando los sistemas legados de las organizaciones y que estos, a su vez, se comuniquen con otras organizaciones, utilizando Internet como canal de comunicación. Desde el punto de vista de la Ingeniería del Software, es importante dotar de mecanismos adecuados, para que la realización de Servicios Web satisfaga las necesidades, tanto de los usuarios como de clientes que contratan el servicio o empresas que desarrollan. Sin embargo, en la actualidad no existe un método universalmente aceptado que guíe el proceso de desarrollo e integración de SW. Actualmente, para el desarrollo de Servicios Web, se están utilizando metodologías que son: orientadas a aplicaciones Web, propietarias, ágiles, informales, entre otras, que no especifican lo relacionado con la Arquitectura Orientada a Servicios (SOA). El trabajo de investigación que se desarrolló estuvo dirigido a crear un método que guíe el desarrollo de Servicios Web, centrado en tres elementos metodológicos: un modelo del producto, un modelo de procesos y un modelo de grupo. La metodología de investigación que se utilizó para diseñar el método de SW se basan en principios, modelos y conceptos tomados de la Ingeniería de Métodos (ME) y la Ingeniería del Software donde se emplearon los tres elementos metodológicos: Modelo de producto, modelo de proceso y modelo de grupo. El Método desarrollado fue denominado DESWeb y abarca desde la fase de especificación hasta el despliegue del SW. Entre las bondades del método DESWeb se destacan las siguientes: (1) está basado en la arquitectura SOA; (2) es un punto de partida para que las pequeñas y medianas organizaciones puedan iniciarse en los SW en un muy poco tiempo y con la oportunidad de ofrecer calidad de servicio; (3) consta de tres elementos metodológicos: Modelo de producto, el modelo de procesos técnicos y el modelo de grupo de desarrollo, que se traduce en la interrelación de personas, productos y procesos; y (4) emplea diferentes formas de aprovisionamiento de los componentes que integran un SW, el cual puede ser desarrollado, adaptado o contratado. El método fue validado mediante el desarrollo completo de un sencillo SW.
</summary>
<dc:date>2011-06-08T16:14:22Z</dc:date>
</entry>
<entry>
<title>Análisis de las técnicas de localización de objetos Móviles</title>
<link href="http://www.saber.ula.ve/handle/123456789/33292" rel="alternate"/>
<author>
<name>Parada, Carmen Janeth</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33292</id>
<updated>2018-03-14T00:07:34Z</updated>
<published>2011-06-08T16:11:06Z</published>
<summary type="text">Análisis de las técnicas de localización de objetos Móviles
Parada, Carmen Janeth
La escalabilidad de los sistemas distribuidos ha hecho que existan redes que constantemente incremente el número de computadores conectados, generando a su vez un incremento considerable de los recursos que se movilizan por el sistema; la migración constante de estos recursos, como por ejemplo, un dispositivo de hardware, un computador, una impresora, una página web o un agente, hace que su localización sea un problema latente el cual se puede convertir en un gran inconveniente en la evolución de estos tipos de sistemas.

Debido a la constante migración de los recursos, y a su invocación, se han desarrollado una serie de técnicas que permiten su localización; entre las técnicas más conocidas están difusión, prefetching, piggyback y caches. Estas técnicas han sido modeladas para analizar el comportamiento de cada una de estas técnicas y poder determinar su eficiencia; es decir, determinar si las técnicas garantizan que un recurso solicitado sea localizado en un tiempo acotado; y el costo computacional que se genera.

En el proyecto se diseñan experimentos, donde se definen los factores que permiten realizar el estudio de las técnicas de localización de un objeto cuando este migra en el sistema, se determinan las variables de respuesta que evidencien el costo en que incurre el sistema en el momento de usar las técnicas y determinar si estas técnicas son eficientes cuando son usadas solas, o por lo contrario, ellas se complementan para hacer que el costo en que incurre el sistema se disminuya y se incremente la eficiencia.
</summary>
<dc:date>2011-06-08T16:11:06Z</dc:date>
</entry>
<entry>
<title>Establecimiento de criterios de gobernabilidad de ti en las empresas colombianas</title>
<link href="http://www.saber.ula.ve/handle/123456789/33291" rel="alternate"/>
<author>
<name>Velásquez Pérez, Torcoroma</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33291</id>
<updated>2018-03-14T00:07:35Z</updated>
<published>2011-06-08T16:05:28Z</published>
<summary type="text">Establecimiento de criterios de gobernabilidad de ti en las empresas colombianas
Velásquez Pérez, Torcoroma
Este trabajo propone un marco conceptual que permite establecer el nivel de gobernabilidad de Tecnologías de Información (TI) que tienen las empresas colombianas. El marco conceptual incluye los principales componentes de la organización, definiendo la manera como estos componentes trabajan juntos con miras de alcanzar los objetivos del negocio. Se utiliza una metodología descriptiva y evaluativa, donde se realizan actividades como la documentación requerida y el modelado de negocios entre otros, estableciendo un marco de referencia para estudiar el contexto tecnológico colombiano. Se selecciona COBIT 4.0 como estándar de gobernabilidad para el estudio de casos. Se analiza cada objetivo de control presente en cada dominio, evaluando el modelo de madurez en que se encuentran las empresas con respecto a los niveles del marco conceptual propuesto. Finalmente, se presentan algunos lineamientos que las empresas colombianas podrían seguir para progresar en la implantación de niveles de gobernabilidad cada vez más completos y maduros
</summary>
<dc:date>2011-06-08T16:05:28Z</dc:date>
</entry>
<entry>
<title>Desarrollo de sistemas de información bio-climática</title>
<link href="http://www.saber.ula.ve/handle/123456789/33290" rel="alternate"/>
<author>
<name>Torréns Heeren, Rodrigo J.</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33290</id>
<updated>2018-03-14T00:07:35Z</updated>
<published>2011-06-08T15:59:47Z</published>
<summary type="text">Desarrollo de sistemas de información bio-climática
Torréns Heeren, Rodrigo J.
La presente investigación trata sobre sistemas de información ecológicos, biológicos ambientales, haciendo especial énfasis en el manejo de datos y metadatos que permiten formar colecciones de datos científicos. En este trabajo se realizó un estudio de las tecnologías, estándares y herramientas usadas en el manejo de colecciones de datos científicos. En particular, se estudiaron los diferentes estándares de manejo de información estructurada, haciendo énfasis en el lenguaje EML como estándar de intercambio y representación de datos. EML esta siendo desarrollado por varias instituciones en los Estados Unidos, y se esta comenzando a usar dentro de diferentes comunidades científicas. Como resultado se presentan una serie de lineamientos y recomendaciones para el desarrollo de sistemas de información ecológicos, biológicos y ambientales. Dichos lineamientos fueron usados en la implementación de un prototipo de sistema de información para manejo de colecciones de datos que pretende servir como base de desarrollo para sistemas de este tipo. El prototipo final implementado permite crear y consultar colecciones de datos, concentrándose en documentar los datos, a través de la creación de archivos de metadatos conformes al estándar EML. Se espera usar esta investigación como punto de partida de otros desarrollos en esta área
</summary>
<dc:date>2011-06-08T15:59:47Z</dc:date>
</entry>
<entry>
<title>Diseño e implementación de un microprocesador en pedazo de 8 bits (DMN-8M)</title>
<link href="http://www.saber.ula.ve/handle/123456789/33289" rel="alternate"/>
<author>
<name>Moreno Caldera, Yaneth</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33289</id>
<updated>2018-03-14T00:07:36Z</updated>
<published>2011-06-08T15:53:30Z</published>
<summary type="text">Diseño e implementación de un microprocesador en pedazo de 8 bits (DMN-8M)
Moreno Caldera, Yaneth
A través del presente trabajo de grado se consiguió diseñar un microprocesador de 8 bits para el desarrollo de un sistema de procesamiento de Multi-CPUs como reto al procesamiento primordial masivamente paralelo de las aplicaciones actualmente en desarrollo. El microprocesador, bautizado como DMN-8M será implementado como parte de esta tesis en tecnología Field-Programmable Gate Array (FPGA).

El diseño de un microprocesador implica varias fases tecnológicas para su implementación. La inicial es conocida como La Fase de Arquitectura, donde se realiza la definición funcional según las especificaciones del mercado y de la ingeniería. Esta definición funcional es organizada bajo un flujo de movimiento de información que permite ejecutar cada función requerida. El Lenguaje SystemC será el utilizado para cumplir con la especificación funcional de la arquitectura del microprocesador. La siguiente fase, es una fase que se orienta hacia la tecnología FPGA, para eso realizará la especificación tecnológica del modelo RTL bajo el lenguaje tecnológico VHDL. Esta especificación en VHDL debe ser validada con el modelo SystemC y así proseguir a compilarlo en el ambiente de desarrollo de la tecnología FPGA de la compañía XILINX para su implementación en una tarjeta XILINX Virtex2Pro. La integración del circuito
FPGA debe ser a continuación validada electrónica, lógica y funcionalmente basado en el reloj del sistema para definirlo como el prototipo final del microprocesador.

Esta máquina de multi-CPUs tendrá como objetivo principal el hacer frente a las aplicaciones de programación paralela que se están presentando en grandes cantidades en el momento actual.
</summary>
<dc:date>2011-06-08T15:53:30Z</dc:date>
</entry>
<entry>
<title>Desarrollo de un enfoque computacional para la Extracción y caracterización del movimiento del Ventrículo izquierdo en imágenes de tomografía Multicapa</title>
<link href="http://www.saber.ula.ve/handle/123456789/33286" rel="alternate"/>
<author>
<name>Mantilla Jáuregui, Juan José</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33286</id>
<updated>2018-03-14T00:07:31Z</updated>
<published>2011-06-07T16:02:52Z</published>
<summary type="text">Desarrollo de un enfoque computacional para la Extracción y caracterización del movimiento del Ventrículo izquierdo en imágenes de tomografía Multicapa
Mantilla Jáuregui, Juan José
Se describe el desarrollo de una herramienta computacional multiplataforma cuyo marco de trabajo de visualización está basado en Visualization Toolkit (VTK) y el marco de trabajo para desarrollo de interfaz grafica en Fast Light Toolkit (FLTK), para la extracción y caracterización del movimiento del ventrìculo izquierdo (LV) en imágenes cardiacas tridimensionales (3–D). VTK es una herramienta ´útil para la computación grafica 3–D, procesamiento de imágenes y visualización científica en general, fundamentada en una biblioteca de clases C++ de fuente abierta. FLTK es una herramienta multiplataforma que permite el desarrollo de interfaz de usuario (Graphics User Interface, GUI) fundamentada en OpenGL. La herramienta recibe como datos de entrada representaciones geométricas del
LV construidas a partir de imágenes de Tomografía Computarizada Multicapa (Multislice Computed Tomography, MSCT), y de modelos 3–D de la cavidad ventricular izquierda reconstruidos a partir de proyecciones ortogonales de Angiocardiografía Biplana. Un algoritmo de correspondencia no rígida en dos dimensiones (2–D) es usado para hacer el seguimiento de un conjunto de puntos críticos detectados en los contornos que definen las superficies del ventrículo izquierdo. El objetivo es establecer la correspondencia entre contornos que definen la forma 3–D del LV en instantes de tiempo consecutivos. Con la aplicación de algoritmos de caracterización del movimiento ventricular se logra extraer parámetros asociados al movimiento cardiaco útiles para el diagnóstico de patologías cardiacas.
Entre los parámetros considerados, se encuentran los índice de torsión, de contracción radial, de contracción longitudinal, y una representación estática del movimiento basada en cortes longitudinales y radiales del LV, y su integración en un esquema polar conocido como Bull Eye.
</summary>
<dc:date>2011-06-07T16:02:52Z</dc:date>
</entry>
<entry>
<title>Desarrollo de un modelo paramétrico deformable Para la segmentación 3–d de la próstata en imágenes De ultrasonido transrectal</title>
<link href="http://www.saber.ula.ve/handle/123456789/33285" rel="alternate"/>
<author>
<name>Valero Rangel, María Antonieta</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33285</id>
<updated>2018-03-14T00:07:32Z</updated>
<published>2011-06-07T16:01:59Z</published>
<summary type="text">Desarrollo de un modelo paramétrico deformable Para la segmentación 3–d de la próstata en imágenes De ultrasonido transrectal
Valero Rangel, María Antonieta
Se describe el desarrollo de un modelo paramétrico deformable en tres dimensiones para la segmentación automática de la próstata a partir de imágenes adquiridas usando ultrasonido transrectal (TRUS). El modelo tridimensional está basado en la técnica de deformación de forma libre y es guiado por un modelo de contorno activo en dos dimensiones.
Una etapa de pre–procesamiento es requerida a objeto de realzar la información asociada a la glándula prostática en las imágenes TRUS y atenuar los componentes de ruido. Se propone un enfoque basado en la combinación jerárquica de filtros anisotròpicos e isotrópicos. La herramienta computacional en que se ejecuta el modelo ha sido desarrollada en un ambiente multiplataforma que utiliza Visualización Toolkit (VTK) y Fast Light Toolkit (FLTK) como esquema de programación para visualización y desarrollo de interfaz gráfica respectivamente. El modelo ha sido aplicado a tres bases de datos de imágenes de ultrasonido transrectal obteniendo un error menor a 4.30 mm al comparar los resultados con contornos de la estructura prostática trazados manualmente por un especialista urólogo. Adicionalmente, el modelo ha sido utilizado para segmentar la próstata sobre la base de datos del Humano Visual obteniendo un error de 2.30  } 0.86 mm.
</summary>
<dc:date>2011-06-07T16:01:59Z</dc:date>
</entry>
<entry>
<title>Diseño e implementación de objetos de aprendizaje Reutilizables basados en estándares de especificación Como estrategia de enseñanza virtual</title>
<link href="http://www.saber.ula.ve/handle/123456789/33284" rel="alternate"/>
<author>
<name>Quintero D., Miguel A.</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33284</id>
<updated>2018-03-14T00:07:33Z</updated>
<published>2011-06-07T15:59:33Z</published>
<summary type="text">Diseño e implementación de objetos de aprendizaje Reutilizables basados en estándares de especificación Como estrategia de enseñanza virtual
Quintero D., Miguel A.
Los objetos de aprendizaje representan dentro de los ambientes educativos un nuevo paradigma que se asocia a las áreas computacionales y que impulsa su uso en otros ámbitos, cuya implementación principal son los ambientes e-learning. Vistos como pequeñas unidades de información y caracterizados por su universalidad, reusabilidad, interoperabilidad y extensibilidad, constituyen recursos que facilitan su ubicación en entornos y plataformas actuales de educación superior. La presente investigación tiene como finalidad proponer una metodología de desarrollo y construcción de objetos de aprendizaje estandarizados y su implementación en plataformas web, sistemas de gestión de aprendizaje y repositorios que soporten sistemas a distancia.
La construcción involucra aspectos instruccionales y computacionales que permiten caracterizar los objetos de aprendizaje obteniendo un contenido estándar.
Esta investigación se apoya en un método documental, buscando obtener desde el punto de vista instruccional la calidad del contenido presente en los recursos a distancia diseñados con esta guía y el compartir recursos digitales que puedan ser divulgados y aprovechados para aportar conocimiento abierto.
Descriptores: objetos de aprendizaje, educación a distancia, e-learning, diseño instruccional, herramienta educativa.
</summary>
<dc:date>2011-06-07T15:59:33Z</dc:date>
</entry>
<entry>
<title>Ontología espacio temporal de registro catastral venezolano como base para la creación de sistemas de información territorial</title>
<link href="http://www.saber.ula.ve/handle/123456789/33283" rel="alternate"/>
<author>
<name>Piña Rivera, Nelcy</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33283</id>
<updated>2018-03-14T00:07:34Z</updated>
<published>2011-06-07T15:58:03Z</published>
<summary type="text">Ontología espacio temporal de registro catastral venezolano como base para la creación de sistemas de información territorial
Piña Rivera, Nelcy
Piña rivera, nelcy patricia. “ontología espacio temporal de registro catastral venezolano como base para la creación de sistemas de información territorial”. Universidad de los andes. Facultad de ingeniería. Post grado en computación. Trabajo de grado. Maestría en computación. 2006.

Este documento presenta un estudio del problema de registro y consulta electrónica de información pública catastral, enmarcado en la política del Estado Venezolano de controlar los recursos públicos. El propósito de la presente investigación es proponer una Ontología espacio temporal de Registro Catastral venezolano como base para la creación de Sistemas de Información Territorial, por lo que se realizó una investigación descriptiva en torno al Instituto Geográfico de Venezuela Simón Bolívar, las Oficinas Municipales de Catastro y el Registro Público Nacional, pertenecientes al Registro Catastral de información territorial de Venezuela. Se utilizó una aproximación top down [1] para construir la ontología desde los conceptos más genéricos hasta los más específicos y la menthontology [2] como metodología para generar dicha ontología. Para la recolección de datos se utilizó la observación directa simple y la documental, la realización de diálogos abiertos y entrevistas. Se construyó un prototipo de consultas reales a bases de datos inmobiliarias con tecnología de agentes de software, tomando en cuenta el marco legal vigente de Venezuela. Se concluyó que una ontología definida para el dominio Registro Catastral venezolano podría facilitar el desarrollo de aplicaciones orientadas al modelado semántico y de la información territorial, pudiendo implantarse sistemáticamente en cada municipio del país.
</summary>
<dc:date>2011-06-07T15:58:03Z</dc:date>
</entry>
<entry>
<title>Diseño e implementación de un Servidor de Mapas Web para una Red Bioclimática en Montaña Caso de Estudio: Parque Nacional Sierra Nevada de Mérida, Vertiente norte del Pico Bolívar</title>
<link href="http://www.saber.ula.ve/handle/123456789/33282" rel="alternate"/>
<author>
<name>García Mora, Nelly</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33282</id>
<updated>2018-03-14T00:07:33Z</updated>
<published>2011-06-07T15:57:11Z</published>
<summary type="text">Diseño e implementación de un Servidor de Mapas Web para una Red Bioclimática en Montaña Caso de Estudio: Parque Nacional Sierra Nevada de Mérida, Vertiente norte del Pico Bolívar
García Mora, Nelly
El presente trabajo tiene como objetivo principal desarrollar un Servidor de Mapas Web para la Red
Bioclimática del Centro de Microscopía Electrónica “Dr. Ernesto Palacios Prü” de la Universidad de Los Andes en Mérida - Venezuela, que permita monitorear, modelar, predecir e informar sobre las condiciones climáticas de uno de los pulmones vegetales más importantes de nuestro Estado Mérida, como lo es el Parque Nacional
Sierra Nevada. El sistema opera utilizando una Base de Datos Climática (registros climáticos de los años
2001-2005) que contienen registros de temperatura superficial, precipitación y humedad, así como variables bióticas características de una determinada faja ecológica o piso latitudinal. A partir de estos datos se pudo construir un Servidor de Mapas Web, mediante el cual es posible informar resultados climáticos, a través de gráficos anuales. Este software, además de informar al usuario sobre las características más relevantes de cada faja ecológica como: temperaturas máximas y mínimas de la zona, altitudes máxima y mínima y una descripción de la faja latitudinal, permite detallar los diferentes estratos que se pueden encontrar en la misma, incluyendo la composición de las especies vegetales presentes en cada una de estos. Por otra parte este sistema permite mostrar un conjunto de imágenes que visualizan el escenario ambiental presente en cada zona, revelando al usuario una recopilación de los diferentes paisajes, destacando las características más relevantes y visualizando el escenario que corresponde a los valores del piso seleccionado.
Los programas y aplicaciones empleados para este trabajo fueron: MapServer versión 5.0: aplicación desarrollada para trabajar como servidor de cartografía, que permite generar de forma dinámica imágenes en los formatos más habituales para la publicación en Web (gif, png, etc.) y se ejecutan bajo plataformas
Linux/Apache, Windows/IIS; OpenLayers versión 2.7: viene a ser la alternativa libre a Google Maps, está desarrollado totalmente en Java Script, se destaca por su facilidad para poder integrarlo a una Web, además de tener las opciones básicas para moverse y hacer zoom; GvSIG versión 1.1.2: es uno de los proyectos más recientes y exitosos, es una herramienta integradora de los distintos mundos de la información geográfica.
Está conformado por bloques de trabajo como GvSIG 3D, teledetección, vectorial avanzado, piloto de redes, nuevas funcionalidades gáster; por último la aparición del proyecto SEXTANTE que es una biblioteca de algoritmos de análisis espacial de código libre, disponible en varios software de SIG, su objetivo es crear una plataforma que facilite tanto el uso como la implementación de estos algoritmos. Actualmente se cuenta con
220 algoritmos, la versión que se instaló es la 0.1. Para el manejo y almacenamiento de los datos se utilizó
Postgres 8.3 y para el procesamiento de los datos se utilizo Python 2.5 con Matplotlib versión 0.91.4.
Finalmente, y no menos importante, está el desarrollo de la aplicación basada en software libre, permitiendo impulsar las políticas de producción de sistemas de información y comunicación haciendo uso de estándares abiertos, lo que permitirá fomentar el uso de software libre en Venezuela tanto en Universidades Nacionales como en el sector público según lo expresa el Decreto 3390 publicado por el Poder Ejecutivo Nacional en
Diciembre de 2004, Gaceta Nº 38095.
</summary>
<dc:date>2011-06-07T15:57:11Z</dc:date>
</entry>
<entry>
<title>Integración de la programación declarativa y la programación orientada por objetos para desarrollar agentes inteligentes</title>
<link href="http://www.saber.ula.ve/handle/123456789/33277" rel="alternate"/>
<author>
<name>Amaya, Jhon</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33277</id>
<updated>2018-03-14T00:07:30Z</updated>
<published>2011-06-07T14:05:57Z</published>
<summary type="text">Integración de la programación declarativa y la programación orientada por objetos para desarrollar agentes inteligentes
Amaya, Jhon
</summary>
<dc:date>2011-06-07T14:05:57Z</dc:date>
</entry>
<entry>
<title>Transformación uml-xml-bdor-uml</title>
<link href="http://www.saber.ula.ve/handle/123456789/33245" rel="alternate"/>
<author>
<name>Rojas Nava, Janmarco</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33245</id>
<updated>2018-03-14T00:07:29Z</updated>
<published>2011-06-01T16:29:01Z</published>
<summary type="text">Transformación uml-xml-bdor-uml
Rojas Nava, Janmarco
El gran auge que ha tenido la tecnología XML en los últimos años, han hecho que XML se
haya convertido en el estándar universal para transmitir, intercambiar y manipular datos.
Siendo las bases de datos objeto-relacionales (BDOR) un medio ideal para almacenar los
datos contenidos en los documentos XML, y considerando además, que pueden ser
utilizadas para compartir la gran cantidad de datos almacenados en éstas, produjo la
necesidad de integrar estas dos grandes tecnologías. Este concepto condujo al desarrollo de
un número significativo de trabajos enfocados en resolver el problema del intercambio de
datos entre XML y las BDOR (XMLBDOR), sin embargo, los primeros esfuerzos
utilizaban definiciones de tipo de documento (DTDs) que no solventaron el problema.
Es por ello que este trabajo tiene como objetivo fundamental, hacer uso de la nueva
recomendación Esquema XML, la cual promete resolver los problemas que se presentan al
usar las antiguas DTDs y establecer un conjunto de reglas bien definidas que permitan
obtener un conjunto de esquemas XML y esquemas BDOR, modelados a partir de
diagramas de clases UML. El conjunto de esquemas resultante permite establecer las bases
para realizar un intercambio bidireccional de datos entre documentos XML y las bases de
datos objeto-relacionales (BDOR).
El resultado final de este trabajo es la herramienta de software llamada Trilogía, la
cual es independiente de la plataforma y permite realizar las transformaciones UML-XMLBDOR-
UML, basadas en el conjunto de reglas establecido
</summary>
<dc:date>2011-06-01T16:29:01Z</dc:date>
</entry>
<entry>
<title>Comparación de wsbpel vs. ebxml bpss, mediante el desarrollo de dos procedimientos para la descripción de procesos de negocios; enfoque en pyme</title>
<link href="http://www.saber.ula.ve/handle/123456789/33243" rel="alternate"/>
<author>
<name>Guillen Mora, Jackson Johan</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33243</id>
<updated>2018-03-14T00:08:51Z</updated>
<published>2011-06-01T15:15:34Z</published>
<summary type="text">Comparación de wsbpel vs. ebxml bpss, mediante el desarrollo de dos procedimientos para la descripción de procesos de negocios; enfoque en pyme
Guillen Mora, Jackson Johan
El uso de Internet y la globalización de la información son hoy en día tendencias claras de nuestra sociedad. En este sentido la disminución de los costos de comunicación, los avances en las tecnologías de información y la presencia de una red pública de cobertura mundial han tenido una gran influencia. Fundamentadas en estas tendencias han surgido, desde hace ya un tiempo, ideas claras de hacia dónde se dirigen los negocios y la manera de cómo estos se realizan. Los negocios electrónicos son una realidad que cada día se extiende más superando los últimos obstáculos o limitaciones para una acogida más amplia y a todos los niveles de negocios. Una de estas limitaciones de los negocios es la interoperabilidad consistente y uniforme entre empresas. En este contexto se han planteado, adoptado y se siguen generando varias soluciones cada vez más cercanas al que se presume será el estándar definitivo.
ebXML BPSS y WSBPEL(BPEL4WS) son dos de las propuestas de envergadura más recientes que plantean la interoperabilidad a través de esquemas propios para la descripción de los procesos de negocios. ebXML BPSS es el estándar propuesto por el centro de la ONU para la facilitación del intercambio y los negocios electrónicos (UN/CEFACT) y por la organización para el avance de los estándares estructurados de información (OASIS) (1). WSBPEL es el estándar propuesto por Microsoft, IBM y BEA (2). La importancia de ambos estándares da pie al estudio y comparación de ellos. En el presente trabajo se ha ofrecido una perspectiva diferente a la de comparar sintáctica o semánticamente estos estándares, pues se ha planteado un comparación pragmática mediante el desarrollo de dos procedimientos para la descripción del dominio público de los procesos de negocios, que usen los estándares en el escenario de las pequeñas y medianas empresas. Como resultado se ha encontrado que WSBPEL es más conveniente y altamente recomendado para PyME
</summary>
<dc:date>2011-06-01T15:15:34Z</dc:date>
</entry>
<entry>
<title>Alejandría inteligente</title>
<link href="http://www.saber.ula.ve/handle/123456789/33242" rel="alternate"/>
<author>
<name>Ilzuru C., Icaro</name>
</author>
<id>http://www.saber.ula.ve/handle/123456789/33242</id>
<updated>2018-03-14T00:08:51Z</updated>
<published>2011-06-01T14:58:24Z</published>
<summary type="text">Alejandría inteligente
Ilzuru C., Icaro
Este documento presenta  el resultado de un  experimentos con tecnología web  semánticas implementada sobre una  un sistema de gestión de información conocido como Alejandría
Se contextualiza que es la web semántica, se muestra la tecnología somática y web  semánticas que se toman en consideración ,se presenta y justifica el uso de Alejandría  en el experimento y se propone una arquitectura de utilización de algunas tecnologías  semánticas en las aplicaciones de manejo de información en general  (usando Alejandría como caso de prueba). Como resultado se logra una mejora en la preparación de información obtenida a partir de la búsqueda que realiza los usuarios  a través de la interfaz de la aplicación 
Se utiliza: OWL  para la catalogación, estandarizada y estructuración de la información compartida: WordNet para la interrelación de descriptores (mejora la búsqueda);y gramáticas en prolog para el reconocimiento de preguntas  realizadas en el lenguaje natural . Estas tecnologías fueron combinadas y aplicadas en el sistema de gestión de información: para mostrar en forma conceptual  y a través de ejemplos típicos, dentro de un dominio de conocimientos específicos  que la arquitectura propuesta funciona  satisfactoriamente
</summary>
<dc:date>2011-06-01T14:58:24Z</dc:date>
</entry>
</feed>
