Programa de Posgrado en Computación
Permanent URI for this communityhttps://repositorio.sibdi.ucr.ac.cr/handle/123456789/15780
Browse
Now showing 1 - 20 of 24
- Results Per Page
- Sort Options
Item Construcción de una red neuronal artificial para clasificar cantos de aves: una aplicación de la inteligencia artificial a la biología(2006) Castro Ramírez, Arturo; Marín Raventós, Gabriela; Vargas Morales, Juan JoséEn el presente trabajo se implementaron y probaron tres diferentes modelos de redes neuronales artificiales, orientadas al reconocimiento y a la clasificación de patrones en señales acústicas de cinco especies de aves de Costa Rica. Se le dio particular énfasis al tema de la codificación de los datos, proponiéndose tres métodos basados en la extracción de características para generar vectores que sirvieran como las entradas de las redes neuronales. Se experimentó con diversas arquitecturas de red y estrategias de entrenamiento con el fin de encontrar una o varias redes que pudieran aprender a clasificar cantos de aves en períodos razonables de tiempo y con altos porcentajes de éxito en su respuesta. Se demostró que las estrategias de codificación propuestas permiten reducir de manera importante y sin excesiva perdida de información, el número de valores que describen a una señal bioacústica. Los esquemas de codificación basados en la vectorización de las imágenes o espectrogramas de los cantos mostraron ser mejores descriptores en términos de los resultados de clasificación obtenidos, comparados con aquellos basados en la vectorización de la frecuencia fundamental de los cantos. Redes neuronales artificiales que utilizaron el aprendizaje supervisado alcanzaron porcentajes de éxito que superaron el 90% de éxito cuando se les entrenó y evaluó con el 50% de los datos, mientras que aquellas que utilizan el aprendizaje no supervisado requirieron de la totalidad de los datos para alcanzar porcentajes similares en la clasificación de patrones de entrenamiento. La mejor red lograda fue del tipo perceptrón multicapa (100% de éxito en la clasificación de datos de entrenamiento y 91°/o en la generalización), la cual fue entrenada con el algoritmo clásico de retropropagación y gradiente descendente con momentum, esto a pesar de los mayores tiempos requeridos...Item D-Explorer: herramientas livianas para la exploración de sistemas distribuidos en ambientes académicos(2009) Acón Chan, Man Sai; Argüello Venegas, José RonaldEn este trabajo de investigación se desarrolló y se validó D-Explorer, un conjunto de herramientas que facilitan la implementación de aplicaciones distribuidas en ambientes académicos. Inicialmente, se identificaron y se desarrollaron las funcionalidades y los servicios que deben tener D-Explorer. Posteriormente, se verificó el funcionamiento correcto de estas herramientas mediante el diseño y la ejecución de una serie de pruebas concurrentes. Finalmente, estudiantes de la Maestría en Computación e Informática de la UCR usaron D-Explorer durante el segundo semestre del 2008 y lograron implementar con éxito varias tareas programadas. D-Explorer es de código abierto, tiene bajos requerimientos de hardware y de software e incluye tutoriales que explican su uso. Los componentes principales de D-Explorer son: el canal de servicios y los servicios de descubrimiento, directorio, notificaciones, sincronización y archivos. Con el uso de D-Explorer, se espera facilitar el desarrollo de aplicaciones distribuidas y lograr que estudiantes, tesiarios o investigadores puedan implementar rápidamente tareas programadas y proyectos cortos que involucren conceptos de sistemas distribuidos o aplicaciones distribuidas con diversos fines como estudiar algoritmos distribuidos, evaluar el rendimiento o la correctitud de nuevos algoritmos.Item Automatización parcial de la revisión de aspectos de precisión, no-ambiguedad y verificabilidad en requerimientos de software escritos en lenguaje natural(2009) Berrocal Rojas, Allan Francisco; Barrantes Sliesarieva, Elena GabrielaLos requerimientos de software son parte fundamental en el ciclo de vida del software. Una especificación de requerimientos que se realice de forma apropiada aumenta las posibilidades de producir software que satisfaga las necesidades de los usuarios. En la industria de aviónica en particular, muchos de los sistemas empotrados que se producen se consideran sistemas de misión crítica. Por consiguiente, el proceso de desarrollo de software es muy riguroso en cada una de las etapas del ciclo de vida. Para garantizar una buena definición de requerimientos, el estándar de desarrollo de software más utilizado en aviónica, DO-178B, establece algunas propiedades que los requerimientos de software deben satisfacer. En esta investigación se explora un enfoque sencillo para automatizar parcialmente la tarea de verificar que requerimientos de software escritos en lenguaje natural cumplan con tres de las propiedades requeridas por el estándar: precisión, no-ambigüedad y verificabilidad. Se propone una definición acotada para cada uno de dichos conceptos, tomando en cuenta las principales características que los requerimientos de software deben tener para cumplir con las propiedades establecidas. Se implementa un prototipo de software que aplica técnicas de procesamiento de lenguaje natural, análisis de texto, y diccionarios especializados para detectar, en que medida, requerimientos de software escritos en inglés cumplen o no con las propiedades deseadas. Los resultados obtenidos muestran, por un lado, que es factible crear herramientas de software que faciliten la tarea de revisión de requerimientos de forma automática. Además, dichas herramientas producen resultados satisfactorios. Por otro lado, mediante los experimentos se notaron algunas deficiencias en cuanto a la forma en que se realizan las evaluaciones cuando no se tiene el apoyo de una herramienta...Item Ubicación: aplicación telefónica móvil para proveedor contenido y localización al visitante del campus universitario(2011) Ramírez Sanabria, AlejandroItem Evaluación de un modelo de integración de los algoritmos de selección negativa y célula dendrítica aplicado a la detección de apnea(2011) Hess Flores, Federico; Barrantes Sliesarieva, Elena GabrielaLos sistemas immunes artificiales (SIA) constituyen una clase de modelo computacional inspirado por las capacidades de detección de anomalías del sistema inmune humano. En esta investigación se propone y se evalúa un modelo híbrido de SIA basado en dos algoritmos existentes, el algoritmo de selección negativa V-Detector y el algoritmo de célula dendrítica determinístico. Estos algoritmos se inspiran en los componentes adaptativo e inmato del sistema immune natural, respectivainente. A pesar de que se conoce que estos dos componentes están estrechamente ligados en el sistema biológico, hasta la fecha ha habido relativamente poca investigación acerca de la potencial utilidad de reflejar esta integración en los modelos de SIA. A partir del modelo híbrido propuesto. se implementó un prototipo de sistema de detección de anomalías y se evaluó en el dominio de la detección de la apnea obstructiva de sueño, un problema de salud común con severas ramificaciones médicas, sociales y económicas. El análisis de resultados demuestra que el modelo híbrido supera la eficacia en la detección de anomalías con respecto a los dos modelos base. Tanto el modelo híbrido como la estrategia utilizada para evaluar los modelos en el dominio de la detección de apnea son contribuciones significativas de esta investigación.Item Uso de aleatorización como un mecanismo de defensa frente a la inferencia de estrategias en sistemas multiagente(2011) Ulloa Rodríguez, Roberto; Barrantes Sliesarieva, Elena GabrielaLa seguridad computacional es un área que tradicionalmente es descuidada al surgir una nueva tecnología y los sistemas multiagente parecieran estarse sumando a esta lista. Estos sistemas han surgido como respuesta a la necesidad de facilitar la construcción de los sistemas distribuidos. En esta tesis se analiza una vulnerabilidad hasta ahora poco estudiada en la literatura y además se implementa un mecanismo simple para la prevención del uso de esta vulnerabilidad por parte de un agente malicioso. La vulnerabilidad estudiada consiste en la posibilidad de inferir de estrategias por parte de uno de los agentes que se encuentra dentro del sistema multiagente. El trabajo implementa una simulación del juego de roles y estrategias Los Hombres Lobo de Castronegro. Se presume que la complejidad de esta simulación es elevada debido a la cantidad de variables que contempla: cantidad y tipos de agentes, estados del juego y múltiples tareas que los agentes deben realizar. A lo anterior se introduce un agente (agente inferente) de adivinar las estrategias de los demás participantes del juego, poniendo en evidencia la posibilidad de explotar la vulnerabilidad planteada. La investigación está enfocada en estudiar un mecanismo para prevenir la inferencia de las estrategias. Para ello, se diseña un sistema de introducción de ruido mediante aleatoriedad en las estrategias presentadas. Posteriormente, se mide la perturbación provocada por el ruido introducido en la capacidad de adivinar las estrategias. Este detrimento es comparado con la pérdida de eficacia que alcanzaba la estrategia original contra la estrategia a la cual se le ha introducido ruido. La comparación se realiza tanto en términos absolutos como proporcionales, es decir, estudiando la razón de cambio. Los resultados encontrados indican que el mecanismo de prevención de inferencia de estrategias propuesto no solamente es útil sino que además es eficiente puesto que tiene un mayor efecto...Item Evaluación de una modificación al cálculo de pesos en el modelo vectorial para recuperación de información(2011) Quesada Sánchez, Juan JoséItem Diseño y evaluación de guías de implementación y evaluación para las normas técnicas para la gestión y control de las tecnologías de información de la Contraloría General de la República(2011) Lara Petitdemange, Adrián; Jenkins Coronas, MarceloLas Normas técnicas para la gestión y control de las tecnologías de información (TI) de la Contraloría General de la República (CGR), representan el esfuerzo de esta entidad por regular la gestión y control de las TI en el sector público de Costa Rica. Estas normas toman lo más aplicable de los objetivos de control de COBIT (Control Objectíves for lnformation Techno/ogy) y buscan estandarizar, con base en buenas prácticas internacionales, la forma en que las organizaciones costarricenses que reciben fondos públicos gestionan y controlan sus TI. En esta investigación identificamos una oportunidad de mejora en las Normas de la CGR. En efecto, los requerimientos de este modelo no incluyen información detallada que ayude al implementador y al evaluador a implementar y evaluar, respectivamente, lo que solicitan. Con el objetivo de facilitar los procesos de implementación y evaluación, propusimos una guía que ayuda a ambas partes a alcanzar sus objetivos. La guía propuesta fue incorporada a una herramienta de software que simplifica el proceso de evaluación. Asimismo, fue utilizada para realizar una evaluación del nivel de cumplimiento de las Normas de la CGR en una organización de TL Finalmente, realizamos una investigación con funcionarios del Banco Central de Costa Rica y de la Contraloría General de la República, expertos en las normas, para determinar la opinión de dichos especialistas con respecto a la guía propuesta. Este documento presenta las ventajas obtenidas con el diseño de la guía y la incorporación de la misma a la herramienta de software. Evidencia también los resultados de la evaluación realizada en una organización de TI. Finalmente, muestra que los expertos del BCCR y de la CGR tienen una opinión favorable de la guía propuesta...Item Interfaces de usuario tangibles para fortalecer la interacción en el proceso de lectura inicial aplicada a estudiantes con síndrome de down(2016) Jadán Guerrero, Janio Lincon; Guerrero Blanco, Luis AlbertoLa presente investigación se centra en el estudio empírico de aspectos de interacción, motivación y aprendizaje en el proceso de alfabetización de estudiantes con síndrome de Down (SD). Su objetivo es analizar la efectividad de una herramienta computacional basada en una Interfaz de Usuario Tangible (TUI), como estímulo para un ambiente lúdico de interacción en el proceso de lectura inicial. Se enmarca en un campo interdisciplinario en el que intervienen dos disciplinas: Ciencias de la Computación y Educación Especial. En la primera, el ámbito de acción se delimita al área de Interacción Humano-Computador (HCI) y en la segunda en el área de la Pedagogía. El proceso inició con un estudio exploratorio en Ecuador y Costa Rica sobre el uso de recursos tecnológicos y métodos de lectoescritura que el profesorado utiliza con estudiantes con discapacidad intelectual. A través de entrevistas y encuestas a 15 maestras de Educación Especial se identificaron dos métodos de lectoescritura, el método Global Troncoso (Analítico) propuesto por una autora española y el método Picto Fónico Pifo (Sintético) propuesto por una autora costarricense. Mediante una revisión sistemática de literatura se estableció el estado del arte y se identificaron problemas abiertos en el ámbito de diseño de tecnologías que apoyan el proceso de alfabetización, particularmente aquellas basadas en Interfaces de Usuario Tangibles. A partir de la información recabada se presentó una primera propuesta computacional denominada Tic@ula (Tecnologías de la Información y la Comunicación para el aula costarricense). La propuesta se basó en una plataforma web que aplicó eJ estándar IEEE- LOM (Metadatos de objetos de aprendizaje) con el fin de estructurar un repositorio con los contenidos de los métodos de lectoescritura. La plataforma fue evaluada por 5 maestras de Educación Especial en Costa Rica y una pedagoga española. Posteriormente, se diseñó...Item Diseño e implementación de un sistema de gestión de aprendizaje institucional para la nube: una plataforma capaz de adaptarse dinámicamente según la demanda(2016) Céspedes Ortiz, Job Natán; Villalón Fonseca, RicardoLos sistemas de gestión de aprendizaje convencionales (LMS por sus siglas en inglés) han sido desarrollados siguiendo los modelos de arquitectura tradicional en infraestructura tecnológica, donde la asignación de recursos se limita y se fija según las prestaciones del hardware utilizado. Por otro lado, han surgido alternativas disruptivas que utilizan el paradigma de la computación en la Nube para sobrepasar ese tipo de limitaciones. El modelo de la Nube ofrece un entorno de características que facilitan el desarrollo de soluciones elásticas. Bajo esas condiciones una plataforma tradicional estática se puede convertir en una dinámica con la capacidad de responder a variaciones en la demanda y auto servirse sólo de los recursos necesarios. La plataforma de aulas virtuales institucional de la Universidad de Costa Rica utiliza Moodle como LMS; la propuesta actual para su arquitectura permite robustez para soportar el servicio, pero sigue el modelo de asignación de recursos tradicional. La Universidad tiene también un proyecto de Nube Académica que posibilita el desarrollo de soluciones elásticas en un entorno basado en el gestor de Nube OpenStack. El objetivo ha sido integrar este concepto de elasticidad en el diseño e implementación de una nueva plataforma que utilice Moodle como LMS, aprovechando las características de la Nube para obtener un grado de adaptabilidad dinámica. Para lograrlo se identificaron, detallaron y diseñaron los componentes base de una arquitectura auto escalable para un LMS, según las características del problema, los requerimientos y los recursos disponibles. El diseño propuesto sirvió como insumo para implementar un prototipo en el entorno de la Nube disponible. Posteriormente se diseñaron, aplicaron y analizaron dos experimentos para evaluar la capacidad de adaptación dinámica del prototipo respecto a la demanda y para valorar su desempeño...Item Comparación de la calidad de una aplicación móvil desarrollada para Android y iOS: un caso de estudio(2016) Campos Arce, Sehyris Ivonne; Jenkins Coronas, MarceloUna empresa costarricense desarrolladora de software creó una aplicación móvil con funcionalidad equivalente para Android y iOS. Debido a ello surgió el deseo de evaluar la calidad del software desarrollado en cada plataforma. En este artículo se comparan dos plataformas de desarrollo con el fin de determinar el impacto que el uso de éstas tiene en la calidad del software en una aplicación desarrollada para Android y iOS desde el punto de vista de la administración del proyecto. Para llevar a cabo esta evaluación se recopilaron tiquetes registrados en el sistema de administración de proyectos durante más de dos años para cada aplicación. Posteriormente, se realizaron mediciones de los datos, las cuales permitieron identificar de forma cuantitativa y cualitativa si la calidad del software desarrollado se vio influenciada por la plataforma de desarrollo. Este caso de estudio presenta como resultado principal que en la aplicación desarrollada en iOS se percibe una calidad menor que en Android. Además llama la atención la diferencia en la cantidad de defectos con severidad Majar entre las plataformas. También permitió realizar la evaluación de calidad de dos versiones de una aplicación móvil, sin embargo sus resultados no pueden ser generalizados por lo que se recomienda extender el estudio a más aplicaciones y más compañías, así como realizar una investigación para determinar las causas asignables de los resultados obtenidos.Item Selección de parámetros en máquinas de soporte vectorial para identificación de polaridad(2016) Sanabria Rodríguez, Marco Aurelio; Casasola Murillo, EdgarLa clasificación de texto es una herramienta que permite categorizar la información generada utilizando lenguaje natural, en particular, las redes sociales como facebook o twitter generan gran cantidad de información en tiempo real que puede servir como insumo a una amplia variedad de procesos. Desafortunadamente, convertir la cantidad masiva de información generada por estos medios, aún tiene mucho camino por recorrer. Debido a que esta información es de carácter subjetivo, informal y no estructurada, se recurre a diversas técnicas de inteligencia artificial y Procesamiento del lenguaje natural (NLP) con el fin de identificar y extraer opiniones, y para determinar el valor subjetivo (polaridad positiva o negativa) que carga el texto. Específicamente, para determinar la polaridad de un opinión, se ha recurrido a modelos de clasificación de texto. En particular las máquinas de soporte vectorial (C-SVM) con función de kerifel RBF, gozan popularidad entre los investigadores del área por sus buenos resultados [firmino et al., 2013, Kaya et al., 2012]. Las C-SVM deben ser entrenadas para que aprendan a clasificar textos, lo cuál involucra un proceso de selección de parámetros, el cual posee un impacto significativo en la precisión del modelo. En investigación comparamos, utilizando las métricas de precisión, exhaustividad y valor-F, el uso de valores por defecto de la herramienta LIBSVM contra dos algoritmos de selección automatizada de parámetros: El algoritmo de búsqueda en malla: de amplio uso entre los investigadores [Carrizosa et al., 2014, Devos et al.,, 2009, Li et al., 2010b, Li et al., 2010a, Lin and Liu, 207, Lin et al., 2008, Muan nandi, 2007, Wei-Chih and Yu, 2009], se caracteriza por ser exhaustivo y brindar una alta precisión pero con una cantidad significativa de cálculos que implica un alto consumo de tiempo y recursos computacionales. El algoritmo de lobo gris: creado en 2014 por Mirjalili [Mirjalili, et al., 2014]...Item Desarrollo y evaluación de prototipos de objetos aumentados para notificaciones en ambientes de escritura colaborativa(2016) Brenes Carranza, José Antonio; López Herrera, GustavoEn Computación Ubicua, los objetos aumentados se refieren a aquellos elementos del mundo real a los cuales se les ha proveído con capacidades computacionales para suplir una necesidad específica. Por su parte, los Ambientes de Escritura Colaborativa (CWE, por sus siglas en inglés) permiten a grupos de personas trabajar juntos e incrementar las posibilidades de éxito y compartir conocimiento cuando trabajan en documento compartidos. Un aspecto extremadamente importante en los Ambientes de Escritura Colaborativa son los mecanismos de notificación ya que estos son esenciales para proveer a los usuarios sensibilización acerca del trabajo colaborativo que están realizando. En esta investigación, nosotros describimos un conjunto de objetos aumentados creados para llevar a cabo las notificaciones en los Ambientes de Escritura Colaborativa; estos objetos pueden mejorar la forma en la cual las notificaciones son entregadas a los usuarios, de acuerdo con la estrategia de escritura definida por el equipo de colaboradores.Item Uso de interfaces no tradicionales para acompañar el fortalecimiento de la rodilla(2016) Torres Sólorzano, Andrea Damaris; Guerrero Blanco, Luis AlbertoEl uso de la tecnología en el área de la salud tiene un gran impacto en la mejora de la calidad de vida de las personas. En terapia física existe el problema de que los pacientes con lesiones de rodilla no son constantes en sus ejercicios de rehabilitación, retrasando su proceso de recuperación. Para ello, se propone en esta investigación, una solución a través de una herramienta conformada por una interfaz no tradicional que permita monitorear al paciente, entretenerlo y que facilite el cumplimiento diario de sus ejercicios. En esta investigación se aplican principios de interacción humano computador para asegurar la usabilidad de la tecnología con el paciente, sin ser intrusiva cuando realiza los ejercicios. La interfaz no tradicional propuesta se conforma de dos componentes, uno de hardware y otro de software. La usabilidad de ambos fue evaluada con expertos de terapia física y con métricas de interacción humano computador. Los resultados de las validaciones con los terapeutas físicos demuestran que es posible crear dicha herramienta, al poder crear apego a la rehabilitación en los pacientes.Item Extracción de temas emergentes en textos cortos utilizando modelos de temas y discriminación de términos(2017) Quesada Grosso, Minor Eduardo; Leoni de León, Jorge AntonioLa minería y explotación de datos contenidos en las redes sociales no solo ha sido foco de múltiples esfuerzos, sino que a pesar de los recursos y energía invertidos aún queda mucho por hacer dada su complejidad, la cual obliga a adoptar una perspectiva multidisciplinaria (Liu and Zhang, 2012). Concretamente, en lo que respecta a esta investigación, el contenido de los textos publicados regularmente, y a un ritmo muy acelerado, en los sitios de microblogs (por ejemplo, en Twitter) puede ser utilizado para analizar tendencias mundiales y locales como en países específicos. Estas tendencias en microblogs son marcadas por temas emergentes que se distinguen de los demás por un súbito y acelerado índice de citas asociadas a un mismo tema; es decir, por un aumento repentino de popularidad en periodos relativamente cortos, por ejemplo, un día o unas cuantas horas Wanner et al. (2014). El problema, entonces, es doble, primero hay que extraer los temas sobre los cuáles se escribe y, luego, hay que identificar cuales de esos temas son emergentes. Una solución reciente, conocida como Bursty Biterm Tapie Model (BBTM) (Yan et al:, 2015), es un algoritmo para identificación de temas emergentes, con un buen nivel de resultados en Twitter. Este algoritmo utiliza coocurrencias de palabras (bitérminos) para modelar los temas emergentes. De modo que en lugar de procesar cada palabra, el algoritmo debe procesar los múltiples bitérminos formados con ella. Esto provoca un aumento en el tiempo de ejecución necesario. De ahí, que esta investigación busca evaluar la introducción en BBTM de un mecanismo para discriminar los bitérminos con el fin de procesar sólo aquellos que sean más importantes y reducir así el tiempo de ejecución necesario.Item Diseño de sistemas ubicuos: estudio de reglas para la toma de decisión sobre diferentes tipos de notificaciones en dispositivos inteligentes(2017) Yoong Quimis, Shirley Miulin; Guerrero Blanco, Luis AlbertoThe purpose of this study is to characterize to different persons and the form in which different types of notificatíons are received in the intelligent devices. The principal idea is to define a set of rules or parameters that help the persons to develop his daily activities without having a massive intrusion. To achieve the target an on line poll was prepared and executed with 439 participants. The responses of the poll were analyzed to know the level of knowledge of the persons on certain intelligent devices who intervene in this study, as well as the satisfaction of the persons on the quantity of received notifications and the privacy of the same ones. After analyzing the results it is observable that of the six smart devices, only one of them (smart speaker) is a little less known by the participants. However, smart devices are considered as possible mechanisms for delivering notifications in an appropriate way by establishing rules that satisfy individuals' needs.Item Evaluación de metodologías de defensa para ataques de inyección SQL(2017) Chavarría Mora, Isaías Jesús; Barrantes Sliesarieva, Elena GabrielaCon el crecimiento en la cantidad de aplicaciones web, se aumenta también la vulnerabilidad ante atacantes que desean apoderarse de los datos que son manejados por estas aplicaciones, o incluso causar daños a la infraestructura de la aplicación. De los ataques de inyección de código conocidos, la inyección de SQL es la más común y la que ha causado más daños en los últimos años. En este trabajo se presenta una evaluación y comparación entre dos técnicas creadas para prevenir los ataques de inyección de SQL, SQLRand y Detección basada en Árboles de Decisión, con el fin de apoyar la toma de decisiones en cuanto a su uso en aplicaciones web. Como resultados, se muestra el porcentaje de efectividad de cada metodología en la detección de ataques de inyección SQL, además del análisis del costo que representa la implementación y el conocimiento previo requerido.Item Incorporación de pruebas no funcionales al proceso de desarrollo de software en la Unidad de Gestión de Proyectos de la Universidad de Costa Rica(2017) Guillén Figueroa, Erick; Martínez Porras, AlexandraEl contexto de esta investigación es la Unidad de Gestión de Proyectos (UGPR) de la Universidad de Costa Rica, la cual se encarga del desarrollo de software institucional. Aunque esta Unidad tiene procedimientos establecidos para las pruebas funcionales de los sistemas que desarrolla, carece de procedimientos para la aplicación de pruebas no funcionales. Con la intención de ayudar a solventar este problema, se propuso como objetivo de esta investigación definir procedimientos para la incorporación de pruebas no funcionales al proceso de desarrollo de software de la Unidad. Para desarrollar esta investigación, se identificaron las necesidades de pruebas no funcionales que tenía la Unidad, luego se determinó cuáles partes del proceso de desarrollo de software debían ser modificadas para incorporar las pruebas no funcionales identificadas, y finalmente se propusieron procedimientos para la planificación, el diseño, la ejecución y el reporte de las pruebas no funcionales dentro del proceso de desarrollo de software de la Unidad. Estos procedimientos fueron validados mediante su aplicación en un proyecto de software que la Unidad estaba desarrollando, para el cual se esperaba una alta concurrencia de usuarios en producción. En todo este proceso de trabajó muy de cerca con los miembros de la Unidad con el fin de proponer soluciones viables y consensuadas, que eventualmente pudieran ser puestas en práctica por la Unidad. Similarmente, se trató de recopilar la percepción que tenían los usuarios de los sistemas desarrollados por la Unidad. De esta recopilación se logró identificar que los sistemas no satisfacían las expectativas de sus usuarios en cuanto a usabilidad y rendimiento, lo que dio pie a enfocarnos en pruebas no funcionales de usabilidad, carga y estrés. Dentro de los principales hallazgos sobresale la importancia de cuantificar la percepción que tiene el usuario...Item Automatización del análisis sintáctico para el español americano con el fin de crear un Treebank estandarizado(2017) Sandí Salazar, Minor; Marín Raventós, GabrielaEsta investigación se orienta hacia el análisis de textos que han sido etiquetados morfológicamente. Estos textos son analizados por lingüistas para asignar a cada palabra su función sintáctica en la oración a la que pertenecen. Este proceso generalmente es manual. Cada oración es analizada elemento por elemento hasta completar su análisis y proseguir con otra. Cuando la cantidad de oraciones es grande, el tiempo invertido por los lingüistas es considerable, pudiendo absorber espacios requeridos por el investigador para otras tareas. Las investigaciones en procesamiento de lenguaje natural buscan automatizar parcial o totalmente los análisis morfosintácticos. Cada equipo de expertos ha generado su propio etiquetado de categorías gramaticales y funciones sintácticas, siguiendo una corriente de análisis del lenguaje natural. Dos de ellas son la gramática generativa y la gramática de dependencias. Un alto porcentaje de las investigaciones mencionadas se ha hecho para lenguas como el inglés, alemán y chino, por citar algunas. El análisis para el español se inició después, enfatizándose las investigaciones en su variante peninsular y no en la americana. En los últimos años surgió una tendencia en la que varias investigaciones han desarrollado etiquetados morfosintácticos para estandarizar el análisis con formatos universales. Dicho de otra forma, pueden emplearse para analizar varias lenguas con un mismo formato. Esta tesis recopila información sobre algunos textos analizados en español para determinar sus características y ofrecer un posible punto de partida para posteriores investigaciones. Se incluye un inventario de etiquetados morfosintácticos usados en estos textos anotados, para hallar semejanzas y diferencias entre estos. El fin es comparar estos formatos, para determinar el más útil a la hora de estandarizar los análisis. También se examinan conjuntos de oraciones en español cuyas palabras poseen un sistema...Item Evaluación del uso de la herramienta PEX para generar pruebas unitarias en un contexto industrial(2017) Vives Rodríguez, David Alberto; Martínez Porras, AlexandraLas pruebas unitarias son un nivel de pruebas que permite al propio desarrollador verificar la funcionalidad de un método o una unidad de código pequeña. Este tipo de pruebas contribuyen a la mantenibilidad del código, pues permiten detectar rápidamente si algún cambio que se hizo al código afectó la funcionalidad original. Esta investigación evalúa el uso de una herramienta para la generación automática de pruebas unitarias en un contexto industrial. La herramienta estudiada es Pex (posteriormente renombrada IntelliTest). El contexto industrial donde se usó esta herramienta fue la empresa lntel de Costa Rica. Participaron cuatro desarrolladores del Programa Quality Management Tools del Departamento Quality Business Systems. A cada uno de ellos se le dio una historia de usuario a implementar en una aplicación, junto con sus pruebas unitarias, las cuales debían desarrollar tanto de forma manual como de forma automática usando la herramienta Pex. En total se usaron cuatro aplicaciones diferentes. Las pruebas unitarias generadas se evaluaron en los siguientes aspectos: porcentaje de cobertura de código, tiempo de desarrollo de las pruebas y cantidad de errores válidos encontrados. También se pasó una encuesta a los desarrolladores participantes. Para el contexto de la investigación, las pruebas unitarias generadas con la herramienta IntelliTest tuvieron mejor desempeño en código legado y servicios web, con respecto a aplicaciones nuevas o aplicaciones web. También se encontró que los desarrolladores consideran más eficaz la creación de pruebas unitarias de forma manual que las generadas mediante IntelliTest, aunque señalaron que sí le veían valor como herramienta de apoyo en la escritura de pruebas unitarias.