Un software muy usado es el de restaurante y hoteles, Ya muchos de estos negocios no funcionan como en el pasado. Ya los camareros no usan libretas donde escriben las órdenes o pedidos de los clientes, estas son reemplazados por  máquinas portátiles que notifican notifican a una computadora principal la que a su vez notifica al chef el cual inmediata mente empieza a preparar el pedido. Los Hoteles usan programas especiales que controlan el personal y lo que están obligados a hacer durante todo el día. Cuando un huésped de controles fuera de una sala de limpieza notifica a través de un ordenador que la habitación esté lista para la limpieza, el restaurante da una orden, y la recepción y conserjería de las solicitudes. Las facturas son impresas mucho más fácil y el registro le hace un seguimiento de todos los invitados, sus datos personales, direcciones, teléfonos, tiempos y otros preferencias.
Hola Javier un gusto saludarte. Te comento que soy encargado de almacenes en una empresa constructora, en donde manejamos ingreso y salida de materiales de construcción, equipos, repuestos, herramientas, etc., en la oficina central y en coordinación con los almacenes de los campamentos de obra. Me gustaría que puedas aconsejarme un programa que me permita desarrollar estas actividades para tener un mejor control de los almacenes. Agradecido de antemano.......
En este siglo XXI, los equipos pronto comenzaron a sobrepasar las capacidades de uso de sus propietarios y la potencia de cálculo nos permitió usarlos más allá del uso común y corriente. Una de esas tareas es la ejecución de herramientas para pruebas, orientadas hacia el campo que nos incumbe aquí: la monitorización. Las herramientas para pruebas se utilizan, por ejemplo, en la monitorización de Caja Abierta y Cerrada, y en el artículo sobre la optimización de rendimiento web os nombramos algunas de ellas (“Selenio, TestingWhiz y TestCompleto”). Por supuesto, Pandora FMS y la flexibilidad que le caracteriza combina todo ello en la Monitorización UX PWR. Os invitamos a leer dichas publicaciones y regresar con nosotros a este artículo para profundizar en las herramientas para pruebas.
Presentado como trabajo de Maestría por Pekka Klärck y desarrollada en la empresa “Nokia Siemens Networks” ese mismo año, a partir de la versión 2.0 fue cambiada como software libre (año 2008) y su versión 3.0 llegó el año pasado. Escrita en Python y con licencia Apache 2.0, es posible su utilización principalmente con Java y .NET (con complementos se puede utilizar Perl, Javascript y PHP). Como muchas otras librerías de Python, se instala por medio PIP, y las librerías de Selenium Web Driver se deben instalar en un segundo paso; luego podremos instalar librerías adicionales para MongoDB, FTP, Android, Appium (una aplicación especializada en ejecución de guiones bajo Android e iOS) y muchas más. Robot framework utiliza también pruebas dirigidas por palabras clave.
En la última década se ha puesto de moda -incluso es un oficio, y en algunos casos se ha convertido en profesión- el término usuario beta, para referirse al usuario de pruebas que está ubicado entre el programador y el usuario final. Pero, ¿se han preguntado quién o qué está primero o delante, hoy en día, del usuario beta? ¡Acompañadnos hoy en nuestra disertación sobre las herramientas para pruebas!
• Mayor confiabilidad en los resultados. El sistema de automatización no se cansa, nunca tiene prisa, y mientras las pruebas o su información no cambie, deben de obtener siempre el mismo resultado; son consistentes, confiables, y repetibles. Como seres humanos te cansas, preocupas, o simplemente apresuras en sacar tu trabajo a tiempo. Todo esto lleva a simples errores humanos que afectan tu capacidad de ser eficiente en pruebas rutinarias. La automatización de pruebas repetitivas que requieren una ejecución frecuente,  te permite tiempo para integrar pruebas más complejas, probar nuevas funciones dentro de la aplicación y su integración con el resto del sistema.
AutoIT es una herramienta para automatizar la GUI de Windows y las secuencias de comandos generales usando una combinación de pulsaciones de teclas, movimiento del ratón y manipulación de ventana / control. Se utiliza para automatizar tareas que son difíciles de realizar con ciertos idiomas. Es muy utilizado por los probadores para crear scripts de automatización para el entorno de Windows.
Cabe resaltar que es importante ser proactivos en cuanto a la utilización del software de negocios, y muchas veces por indecisión, pequeñas cuestiones que podrían solucionarse fácilmente (inventario, nómina, recursos humanos, etc.) se convierten en dolores de cabeza y nos complica concentrarnos en nuestros objetivos, ofrecer el mejor servicio o producto posible para generar los mayores rendimientos y productividad.
Es un entorno de desarrollo integrado para scripts de Selenium. Se implementa como una extensión de Firefox que solo funciona en la versión 55 e inferiores. Esta herramienta permite grabar, editar y depurar todos los eventos del navegador. Con esta información, las personas pueden reproducir pruebas de manera fácil y rápida en el entorno real en el que se ejecutarán.
sistemas  que  se desarrollan en  la  actualidad siguen  presentando  fallos en  su  ejecución,  dichos  fallos tienen costos significativamente altos. El propósito general de evaluar sistemas es localizar la mayor cantidad de fallos posibles para corregirlos. De acuerdo al estándar IEEE 1633-2008 (Norman F. Schneidewind, 2008), un fallo es una  condición  accidental  que  hace  que  una  unidad  funcional  falle  al  ejecutar  su  función  requerida.  La funcionalidad del sistema queda establecida desde la etapa de análisis y especificación de requerimientos del proceso de desarrollo de software.   La  importancia  de  un  buen  proceso  de  evaluación  se  debe  a  que  si  no  se  realizan  las  pruebas  de  forma pertinente  y  adecuada,  es  imposible  asegurar  que  un  producto  de software  cumple con  la  funcionalidad  de acuerdo  a  las  especificaciones  establecidas en  relación  con  los  requerimientos  del  sistema.  Sin  embargo  el número de pruebas que se realizan para localizar y corregir fallos presenta una tendencia exponencial (Jelinski, 1972). Durante la etapa de pruebas, se tienen dos enfoques que son de gran importancia para lograr identificar los fallos existentes en un sistema, estos son la Verificación y Validación. Durante la Verificación se determina si el sistema o una parte de él operan de una manera satisfactoria. Bajo el enfoque de Validación se determina si un sistema o parte de él satisface los requerimientos establecidos por el cliente. Así esta fase  del  proceso  de desarrollo es una forma de medir y mejorar la confiabilidad de software.   Este artículo está organizado de la siguiente forma, en la sección 2 se presenta el marco teórico en donde el concepto  de  confiabilidad  de  software  es  abordado.  En la  sección 3  se describen  algunas herramientas  de evaluación de  sistemas orientados  a objetos.  En la  sección 4  se  presenta  la  propuesta  del  presente  trabajo. Finalmente en la sección 4 se exponen algunas conclusiones y el trabajo a futuro. Marco teórico   La  confiabilidad  de  software  se  define  como  la  probabilidad  que  tiene  un  sistema  de  operar  libre  de  fallos durante un tiempo determinado en un ambiente específico (Musa, 2004).  Esta es un área de gran  importancia en el proceso de desarrollo de software. En la actualidad la confiabilidad es un atributo de calidad que se exige en  el  desarrollo  de  cualquier  aplicación  de  software. Cuando  las  aplicaciones  de  software carecen  de confiabilidad  se  tienen  consecuencias  económicas,  políticas  y  sociales. Para  tener  niveles  adecuados  de confiabilidad es necesario evaluar al sistema en  cuestión, localizar y corregir la mayor cantidad de fallos antes de que el producto final sea liberado.  Pruebas de software  La  fase  de pruebas  es una  tarea  que  consume  muchos recursos.  Para  ejecutar  esta  fase en  la  práctica  las organizaciones  que  desarrollan software  asignan  un  grupo de  evaluadores  físicos,  los  cuales  realizan  este proceso de forma manual en un lapso de varios meses e incluso años. Este enfoque consume mucho tiempo y conlleva  altos  costos.  Para  lograr  una  cobertura  adecuada  en  la  evaluación  del  sistema  en  cuestión,  es necesario: seleccionar los datos de  prueba, las variables del entorno de  evaluación, determinar  el número de pruebas y el tiempo asignado para este proceso. En la ejecución de la cobertura de evaluación, algunos autores desarrollan  modelos  de  predecibilidad apoyados  de métricas  de  software  (Basili,  1996).  Para  optimizar  los recursos que son empleados en la ejecución de miles o millones de pruebas es adecuado utilizar instrumentos de  evaluación (Ragab,  2010).  Se  han realizado  algunas  propuestas para  evaluar  sistemas  en  Internet, entre estas  propuestas  esta  (Davila-Nicanor,  2005),  en  donde  se  desarrolló  un  herramienta  la  cual  automatiza  la ejecución de las pruebas, reduciendo el tiempo proyectado para la ejecución de 5000 pruebas funcionales de 4 años a tan solo 6 horas.  En la  evaluación dinámica  de un  sistema de software,  muchos  autores se  han enfocado  principalmente en 2 tipos de  pruebas: las  pruebas unitarias   y las pruebas  de  integración. Una cantidad importante de  trabajos  se han enfocado a pruebas unitarias. Mientras que en pruebas integrales existe una menor incidencia de trabajos. Es importante resaltar que para este último enfoque el contexto de operación es determinante, tal es el caso del lenguaje Java, en el cual las clausulas más importantes se resuelven a tiempo de ejecución, un ejemplo de ello son aspectos como el polimorfismo y la herencia.   Pruebas Unitarias  Durante la fase de pruebas, el proceso de evaluación tiene dos aspectos importantes, el primero está orientado al desarrollo de pruebas unitarias o modulares. Estas pruebas  se basan en comprobar unidades individuales de código y determinar si estas cumplen con los requerimientos establecidos. Cuando hablamos de unidades nos referimos  a  secciones  del código  que  pueden  probarse de  forma  independiente.  En  un  sistema orientado  a 

Ver más: ant selenium testng automation process tools used, cross browser testing, cross browser testing matrix, software testing, magento, wordpress, website testing, testing / qa, usability testing, test automation, significance testing cross tabulations spss, testng automation, test automation selenium testng, selenium simultaneous tests, citrix automation selenium, free browser testing suite, cross browser testing jobs, fix cross browser testing, zen cart browser testing, cross browser testing app


Appium es un framework de automatización de pruebas para probar aplicaciones web nativas, híbridas y móviles para plataformas iOS, Android y Windows en dispositivos reales y simuladores. Dado que soporta aplicaciones multiplataforma, permite probar aplicaciones en diferentes plataformas utilizando la misma API. Appium permite a los usuarios elegir el idioma que tiene las bibliotecas de clientes de Selenium como Java, Objective-C, JavaScript con Node.js, PHP, Ruby, Python, C # etc. para crear pruebas.
Firebug es una extensión de navegador web que ayuda a los probadores en la depuración, edición y supervisión en línea de CSS, HTML y JavaScript de la aplicación web. Firebug junto con Firepath se utiliza para identificar XPath de cualquier elemento. Tanto Firebug como Firepath pueden instalarse como una extensión para Mozilla Firefox, mientras que Firebug Lite se puede agregar como una extensión de Chrome que proporciona una rica presentación de elementos HTML y DOM para la edición en directo.
Herramientas de Evaluación para Automatizar Pruebas de Sistemas Orientados a Objetos Leticia Dávila-Nicanor1, Ulises Juárez-Martínez2, Alejandro Romero Herrera1 1Maestría en Ciencias de la Computación Centro Universitario UAEM Valle de México Blvd. Universitario s/n Predio San Javier, Atizapán de Zaragoza, México 2Instituto Tecnológico de Orizaba – División de Estudios de Posgrado e Investigación Oriente 9 No. 852, Col. Emiliano Zapata, Orizaba, Veracruz, México, C. P. 94320 alex.romher@gmail.com, ldavilan@uaemex.mx, ujuarez@ito-depi.edu.mx Área de Participación: Ingeniería de Software Resumen La calidad de software se ha convertido en un tema de gran importancia y la base de un gran número de investigaciones. Para obtener mejores niveles de calidad, se han utilizado modelos matemáticos e instrumentos de evaluación. Sin embargo el costo de la evaluación de un sistema es muy alto, esto es debido, a que las pruebas que se realizan a un sistema de software, normalmente son del orden de miles. El objetivo de evaluar un sistema es encontrar la mayor cantidad de fallos posibles optimizando los recursos que se tienen asignados al proyecto. A pesar de muchos esfuerzos, en la actualidad los paradigmas de programación como el orientado a objetos (POO) y el orientado a aspectos (POA), tienen características en donde las técnicas clásicas de pruebas no son suficientes. En este trabajo se propone un novedoso esquema de evaluación para sistemas orientados a objetos, en donde se combina la planeación de las pruebas, apoyada con técnicas de programación orientada a aspectos. Este enfoque mejora la eficiencia de la técnica de pruebas de caja negra para lenguajes como Java. Nuestra herramienta de evaluación se enfoca en medir los niveles de confiabilidad mediante la emulación de un ambiente controlado con evaluadores virtuales, lo que permite reducir los costos y mejorar la eficiencia en el proceso de evaluación. Abstract Quality software has become an issue with great relevance and it has been the basis of many researches. To obtain best quality levels it has been used different math models and assessment tools. However, the cost to evaluate any system is high, due to the test that have been implemented, it must be run thousands of times. Aim of evaluate a software system is to debug most errors so optimize resources allocate to the project of software. In spite of many efforts, currently the programming paradigms like object-oriented programming (OOP) and aspect-oriented programming (AOP), have characteristics where the testing classic techniques are not enough. In this paper we propose a novel evaluation scheme for object-oriented systems, where planning of tests and techniques supported with aspect-oriented programming are combined. This approach improves the efficiency of the technique of black box testing for programming languages like Java. Our assessment tool focuses to measure the levels of reliability by emulating of a controlled environment with virtual evaluators, thereby reducing costs and improvement the efficiency of process of evaluating. Palabras clave: Confiabilidad, pruebas, calidad, programación orientada a objetos. Introducción Durante el proceso de desarrollo de software, la etapa de localización y corrección de fallos, es decir, la fase de pruebas, puede llegar a ocupar desde un 40% hasta 60% de los recursos totales asignados al proyecto de software (Sommerville, 2007). En un contexto ideal, se espera que un sistema desarrollado de una forma adecuada, presente la menor cantidad de fallos posibles. Sin embargo y a pesar de muchos esfuerzos, los
Jelinski, Z. A. (1972). Software Reliability Research. In Statistical Computer Performance Evaluation. New York:academic Press. Laddad, R. (2003). AspectJ in Action. Manning. Musa, J. D. (2004). Software Reliability Engineering. New York: Mc Graw Hill. Norman F. Schneidewind, L. J. (2008, Junio 27). IEEE Recommended Practice on Software Reliability. New York, NY 10016-5997, USA. Oracle. (2014). http://www.oracle.com. Ragab, S. a. (2010). Object oriented design metrics and tools a survey. In Informatics and Systems (INFOS), 2010 The 7th International Conference on (pp. 1-7). Rathore, S. a. (2012). Investigating object-oriented design metrics to predict fault-proneness of software modules. In Software Engineering (CONSEG), 2012 CSI Sixth International Conference on (pp. 1-10). doi:10.1109/CONSEG.2012.6349484 Sommerville, I. (2007). Software Engineering. Pearson Education. Wahid, M., & Almalaise, A. (2011). JUnit framework: An interactive approach for basic unit testing learning in Software Engineering. Engineering Education (ICEED). doi:10.1109/ICEED.2011.6235381 Autorización y renuncia Los autores del presente artículo autorizan al Instituto Tecnológico de Orizaba (ITO) para publicar el escrito en la revista electrónica “Coloquio de investigación multidisciplinaria” con registro(ISSN2007$8102 en su edición 2014. El ITO o los editores no son responsables ni por el contenido ni por las implicaciones de lo que está expresado en el escrito.
×