Interesante artículo y un buen punto de partida para cuando se plantea automatizar parte del proceso de pruebas. Muchas veces vemos que se habla de automatización porque “es algo que está de moda”, lo cual lleva a las compañías a tomar decisiones apresuradas, decisiones que tarde o temprano tendrán consecuencias que a veces resultan nefastas. Definitivamente es clave saber donde realizar verdaderos esfuerzos para automatizar y hacer que esta actividad sea generadora de valor para el proceso mismo de desarrollo y que los resultados obtenidos contribuyan a la toma de decisiones informadas.

Jelinski, Z. A. (1972). Software Reliability Research. In Statistical Computer Performance Evaluation. New York:academic Press. Laddad, R. (2003). AspectJ in Action. Manning. Musa, J. D. (2004). Software Reliability Engineering. New York: Mc Graw Hill. Norman F. Schneidewind, L. J. (2008, Junio 27). IEEE Recommended Practice on Software Reliability. New York, NY 10016-5997, USA. Oracle. (2014). http://www.oracle.com. Ragab, S. a. (2010). Object oriented design metrics and tools a survey. In Informatics and Systems (INFOS), 2010 The 7th International Conference on (pp. 1-7). Rathore, S. a. (2012). Investigating object-oriented design metrics to predict fault-proneness of software modules. In Software Engineering (CONSEG), 2012 CSI Sixth International Conference on (pp. 1-10). doi:10.1109/CONSEG.2012.6349484 Sommerville, I. (2007). Software Engineering. Pearson Education. Wahid, M., & Almalaise, A. (2011). JUnit framework: An interactive approach for basic unit testing learning in Software Engineering. Engineering Education (ICEED). doi:10.1109/ICEED.2011.6235381 Autorización y renuncia Los autores del presente artículo autorizan al Instituto Tecnológico de Orizaba (ITO) para publicar el escrito en la revista electrónica “Coloquio de investigación multidisciplinaria” con registro(ISSN2007$8102 en su edición 2014. El ITO o los editores no son responsables ni por el contenido ni por las implicaciones de lo que está expresado en el escrito.
Hola a todos, muy buena pagina, yo llevo 2 años en el mundo QA y siempre llevo mis trabajo de forma manual, creo que ya es tiempo de hacer el trabajo con automatización. De los programas mencionados a sido difícil de encontrar tutoriales en español (Video) como para comenzar a utilizar, en mi trabajo reviso mas paginas web E-commers, cual me recomiendan? saludos.

Paint de Microsoft. Si, hay un montón de alternativas mucho más completas e interesantes, como Greenshot, del que hemos hablado aquí, o Jing, del que hablaremos en breve. Pero en muchos casos, con Paint es suficiente. Es un programa básico, incluído en todas las versiones actuales de Windows, por lo que si usas alguna versión de este sistema operativo, lo usarás a menudo. En 3 simples pasos puedes tener un pantallazo, y con poco más puedes destacar un punto en concreto y añadir un texto descriptivo en la imagen:
Para campañas de email marketing, dos soluciones gratuitas y muy buenas son MailChimp y Acumbamail . En el caso de esta segunda puedes elegir tarifas mensuales en función del número de envíos que piensas realizar o el número de suscriptores a los que piensan mandar tus campañas de email marketing. Si lo que haces son envíos de forma puntual o envíos de SMS, puedes elegir una de sus tarifas de prepago por créditos. Desde 13 euros al mes. Sin permanencia. Existe también una versión gratuita de hasta 2.000 envíos a 250 suscriptores. MailChimp es algo más generosa, ya que permite enviar hasta 12.000 correos a 2.000 abonados. “La versión gratuita en ambos casos incluye en los emails un logo de cada una de las compañías y enlace al site, pero no es algo que moleste, por lo que la única razón lógica para optar por sus versiones de pago sería que el número de suscriptores o emails enviados al mes nos resulten insuficiente. En cuanto a las diferencias entre las dos, además del volumen de envíos, la única es que Acumbamail es una empresa española y su interfaz está en castellano. En Mailchimp está todo en inglés, tanto el interfaz como el soporte”, comenta José Carlos Cortizo.
Herramientas de Evaluación para Automatizar Pruebas de Sistemas Orientados a Objetos Leticia Dávila-Nicanor1, Ulises Juárez-Martínez2, Alejandro Romero Herrera1 1Maestría en Ciencias de la Computación Centro Universitario UAEM Valle de México Blvd. Universitario s/n Predio San Javier, Atizapán de Zaragoza, México 2Instituto Tecnológico de Orizaba – División de Estudios de Posgrado e Investigación Oriente 9 No. 852, Col. Emiliano Zapata, Orizaba, Veracruz, México, C. P. 94320 alex.romher@gmail.com, ldavilan@uaemex.mx, ujuarez@ito-depi.edu.mx Área de Participación: Ingeniería de Software     Resumen  La  calidad  de  software  se  ha  convertido  en un  tema  de  gran  importancia  y  la  base  de  un  gran  número de investigaciones.  Para obtener mejores niveles de calidad, se han utilizado modelos matemáticos e instrumentos de evaluación.  Sin embargo  el costo  de  la  evaluación de  un  sistema  es  muy alto,  esto es  debido,  a  que  las pruebas que se realizan a un sistema de software, normalmente son del orden de miles. El objetivo de evaluar un sistema es encontrar  la mayor cantidad de fallos posibles optimizando los recursos que se tienen asignados al proyecto. A pesar de muchos esfuerzos, en la actualidad los paradigmas de programación como el orientado a  objetos  (POO)  y  el orientado a  aspectos  (POA),  tienen  características  en  donde las  técnicas  clásicas  de pruebas no son suficientes.  En este trabajo se propone un novedoso esquema de evaluación para sistemas orientados a objetos, en donde se combina la planeación de las pruebas, apoyada con técnicas de programación orientada a  aspectos.    Este enfoque  mejora  la  eficiencia  de  la  técnica  de  pruebas  de  caja  negra  para  lenguajes  como  Java.  Nuestra herramienta  de  evaluación  se  enfoca  en  medir  los  niveles  de  confiabilidad  mediante  la  emulación de un ambiente controlado con evaluadores virtuales,   lo que permite reducir los costos y mejorar la  eficiencia en  el proceso de evaluación.  Abstract  Quality software has become an issue with great relevance and it has been  the basis of many researches. To obtain best quality levels  it has been  used  different math models and assessment tools. However, the cost to evaluate any  system  is high,  due  to the  test  that have  been implemented, it must  be  run thousands of  times.  Aim  of  evaluate  a software  system  is  to  debug most  errors  so  optimize  resources  allocate to  the  project of software. In spite of many efforts, currently the programming paradigms like object-oriented programming (OOP) and  aspect-oriented  programming (AOP),  have  characteristics  where  the  testing  classic  techniques  are  not enough. In this  paper we  propose  a novel  evaluation  scheme for  object-oriented systems,  where planning  of  tests and techniques supported with aspect-oriented programming are combined. This approach improves the efficiency of the  technique  of  black  box  testing  for programming languages  like  Java.  Our  assessment  tool  focuses  to measure the levels of reliability by emulating of a controlled environment with virtual evaluators, thereby reducing costs and improvement the efficiency of process of evaluating. Palabras clave: Confiabilidad, pruebas, calidad, programación orientada a objetos.  Introducción   Durante el proceso de desarrollo de software, la etapa de localización y corrección de fallos, es decir, la fase de pruebas,  puede  llegar  a  ocupar  desde  un  40%  hasta  60%  de  los  recursos  totales  asignados  al proyecto  de software (Sommerville,  2007).    En  un  contexto  ideal,  se  espera que  un sistema desarrollado  de  una forma adecuada,  presente  la  menor cantidad  de  fallos  posibles.  Sin embargo  y  a pesar  de  muchos  esfuerzos, los 

Robot Framework es un framework open-source genérico de automatización de pruebas para pruebas de aceptación y desarrollo basado en pruebas de aceptación (ATDD). Tiene una sintaxis de datos de prueba tabular fácil de usar y utiliza el enfoque de prueba basado en palabras clave (keyword-driven testing). Sus capacidades de prueba pueden ampliarse mediante bibliotecas de prueba implementadas con Python o Java, y los usuarios pueden crear nuevas palabras clave de alto nivel a partir de las existentes usando la misma sintaxis que se usa para crear casos de prueba.
Con estas herramientas de Selenium podemos reducir considerablemente el tiempo en la creación de las pruebas automatizadas, y estas mismas pruebas pueden ser ejecutadas como un complemento en la ejecución de una prueba funcional. Así, podemos optar por la alternativa que más nos convenga. Lo único que nos queda es usarlas, conocerlas y familiarizarnos con ellas.
Esto depende del tipo de prueba, para las pruebas de tipo ADB y monkey testing depende del número de eventos a realizar, para el caso de las pruebas de de tipo BDD — Calabash la configuración del proyecto toma algunos segundos, luego depende del número de pasos que contenga el archivo .features, además Calabash tiene una serie de timers, los cuales esperan hasta que se cumpla una condición.
Paint de Microsoft. Si, hay un montón de alternativas mucho más completas e interesantes, como Greenshot, del que hemos hablado aquí, o Jing, del que hablaremos en breve. Pero en muchos casos, con Paint es suficiente. Es un programa básico, incluído en todas las versiones actuales de Windows, por lo que si usas alguna versión de este sistema operativo, lo usarás a menudo. En 3 simples pasos puedes tener un pantallazo, y con poco más puedes destacar un punto en concreto y añadir un texto descriptivo en la imagen:
Gracias al análisis de autoservicio, ya no es necesario que ni el negocio ni el departamento de TI tengan que hacer concesiones. El departamento de TI define la gobernanza, y supervisa y administra la plataforma. A su vez, los usuarios corporativos responden sus propias preguntas sabiendo que cuentan con datos precisos y actualizados, además de un espacio de colaboración protegido. Tableau ofrece lo mejor de los dos mundos. Es un método que funciona.

Hoy en día, la automatización de pruebas es una tarea esencial  para proporcionar un servicio de  testing adecuado. Los sistemas que probamos han crecido tanto en tamaño como en complejidad. Necesitamos tener el tiempo de probar las nuevas funcionalidades de nuestros sistemas sin ignorar la funcionalidad previa. Una estrategia de automatización implementada apropiadamente nos ayudará a lograrlo junto con los demás beneficios mencionados en este artículo.
Please. Alguien me puede mencionar alguna herramienta para testear gratis un exe generado con código de Visual Fox Pro, realizado en Genexus. en Microsoft Test Maneger me da el error Cannot perform ‘SetProperty of Text with value “SA”‘ on the control. Additional Details: TechnologyName: ‘MSAA’ Name: ‘CCW333V11’ ControlType: ‘Edit’ SA, es un valor que yo ingreso.. Muchas gracias por su ayuda

El término engloba una amplia variedad de aplicaciones informáticas que incluyen desde programas de contabilidad y de ofimática, hasta sistemas de planificación de recursos empresariales (ERP), pasando por programas de gestión de clientes (CRM) y de recursos humanos, así como programas de administración de la cadena de suministros (SCM), etc. Con estos se suele incluir un servicio para dar soporte técnico a las empresas que los usan, como también orientarlas en problemas y dar soluciones, según los protocolos de cada distribuidor.

ubots

×