Otra forma de realizar estudios de mercado es detectando tendencias en Internet, con herramientas gratuitas como Google Trends, que refleja qué palabras clave busca la gente diariamente, “las modas de búsqueda del momento: por ejemplo, qué juguetes se han buscado más en Reyes”, añade Romero. O realizando tus propias encuestas por correo electrónico con soluciones como SurveyMonkey, también gratuita.

Nótese que en este artículo no recomendaremos ningún software en particular, porque incluso nuestra herramienta hecha en casa necesita de Pandora FMS para que se encargue de entregarle los datos, para que se convierta en información y genere las alertas necesarias, de ser el caso, desde el punto de vista de la monitorización. Así que cada caso y necesidad son muy particulares. En honor a la justicia, los enumeraremos de acuerdo al año en que fue liberada su primera versión al público, y seguro que os agradará la lista que hemos preparado.

Esto depende del tipo de prueba, para las pruebas de tipo ADB y monkey testing depende del número de eventos a realizar, para el caso de las pruebas de de tipo BDD — Calabash la configuración del proyecto toma algunos segundos, luego depende del número de pasos que contenga el archivo .features, además Calabash tiene una serie de timers, los cuales esperan hasta que se cumpla una condición.
inspector de código para crear los casos de prueba necesarios. Algunas propuestas utilizan los archivos fuente de Java y otras se basan en diagramas UML para conocer la arquitectura del sistema.    Nuestra  propuesta  se  basa  en retomar  la parte  de  planeación  y  ejecución  de  pruebas  que  marca  la  teoría clásica,  apoyada  con técnicas de  programación  novedosas como  la  POA  para  mejorar la ejecución  de  cada caso de prueba.  En este caso la combinación de la evaluación del sistema en reposo y en tiempo de ejecución robustece el  proceso de  evaluación para  lenguajes  como Java  y nos  permite planear  y ejecutar  los casos  de prueba de una forma efectiva. De acuerdo a los resultados que hemos obtenido con este enfoque en otro tipo de aplicaciones (Davila-Nicanor, 2005), los costos se reduce en al menos el 50%.  Este enfoque permite obtener sistemas productivos más confiables y eficientes.       Trabajo a futuro  El principal objetivo de nuestro trabajo a futuro es  implementar  el  esquema propuesto  para  la herramienta de evaluación  de  sistemas  orientados  a  objetos.    Para  evaluar  la  certeza  de  esta  propuesta,  serán  utilizados  algunos casos de estudio que  tiene  disponibles en  su base  de datos la Nasa (Rathore, 2012).    El objetivo  de esta base de casos,  es que los instrumentos de evaluación que se proponen puedan contrastar sus resultados con los reportados en esta organización.  Otro objetivo importante es que el costo computacional deberá ser bajo  en la ejecución de la herramienta.  En este caso los algoritmos implementados deben ser eficientes y confiables.     Finalmente la  técnica  que elegimos  POA   en  la  ejecución  de  los  casos  de  prueba,  representa  un  gran  reto, porque de acuerdo al estudio realizado en este reporte, pocas herramienta la utilizan como parte central de su proceso de evaluación. En este caso se utilizan en su mayoría técnicas de algoritmos evolutivos, lo cual genera costos muy altos de ejecución.    Referencias al., K.  e.  (2011).  LCT:  an open  source  concolic testing  tool for  Java  programs.  In  In:  Proceedings  of  the  6th Workshop on Bytecode Semantics, Verification, Analysis and Transformation (pp. pp. 75-80). Albert, E. a.-M.-Z. (2011). jPET: An Automatic Test-Case Generator for Java. In Proceedings  of  the  2011  18th Working  Conference  on  Reverse Engineering (pp.  441--442).  IEEE  Computer  Society. doi:10.1109/WCRE.2011.67 Albert,  E.  a.-Z.  (2010).  PET:  A  Partial  Evaluation-based  Test  Case  Generation  Tool  for  Java  Bytecode.  In Proceedings of the 2010 ACM SIGPLAN Workshop on Partial Evaluation and Program Manipulation (pp. 25-28). Madrid, Spain: ACM. doi:10.1145/1706356.1706363 Basili, V. R.  (1996). A Validation of  Object-Oriented Design  Metrics As  Quality Indicators. IEEE  Trans.  Softw. Eng., 22(10), 751--761. doi:10.1109/32.544352 Bhatnagar, N. (2004). A Survey of Aspect-Oriented Programming Languages.  Cheon, Y. a.  (2010). Automating Java Program  Testing  Using OCL and  AspectJ. In Proceedings  of the  2010 Seventh International Conference  on Information Technology: New Generations (pp. 1020-1025). IEEE Computer Society. doi:10.1109/ITNG.2010.123 Davila-Nicanor, L. a.-A. (2005). Reliability evaluation of Web-based software applications. In Computer Science, 2005. ENC 2005. Sixth Mexican International Conference on (pp. 106-112). doi:10.1109/ENC.2005.36 Fraser, G. a. (2011). EvoSuite: Automatic Test Suite Generation for Object-oriented Software. In {Proceedings of the  19th  ACM  SIGSOFT  Symposium  and  the  13th  European  Conference  on  Foundations  of  Software Engineering (pp. 416--419). Szeged, Hungary: ACM. IEEE. (2014).  IEEE  Spectrum. Retrieved Agosto  111, 2014,  from http://spectrum.ieee.org/static/interactive-the-top-programming-languages 

En cumplimiento de dichas normativas, le informamos de que puede revocar en cualquier momento el consentimiento para la recepción de nuestro servicio de información, enviando un e-mail a dpo@panel.es o bien haciendo clic en el enlace que aparece en el pie de página de cualquier correo electrónico que le enviemos. Nunca venderemos su información y siempre la trataremos con respeto.
Con la plataforma RuedasdeNegocios.com hemos organizado dos eventos internacionales recientemente. Una Rueda de Negocios donde empresarios de Brasil, con el apoyo de APEX, hicieron Negocios con empresas de Paraguay. Y luego una Misión Comercial proveniente de Uruguay, apoyados por su agencia de promoción de exportaciones Uruguay XXI. La plataforma nos facilitó aspectos organizativos y ahorramos mucho tiempo, generándose productivas reuniones de negocios! Excelentes Resultados!
SonarQube excede el concepto de ‘herramienta’ tal y como lo hemos utilizado en este artículo. Sonarqube es una plataforma que nos va a permitir valorar la calidad del código de una manera objetiva. SonarQube comenzó analizando únicamente Java, pero con el pasar del tiempo ha ido creciendo y actualmente soporta más de 20 lenguajes de programación (C#, C/C++, PL/SQL, Cobol y ABAP entre otros).
Jelinski, Z. A. (1972). Software Reliability Research. In Statistical Computer Performance Evaluation. New York:academic Press. Laddad, R. (2003). AspectJ in Action. Manning. Musa, J. D. (2004). Software Reliability Engineering. New York: Mc Graw Hill. Norman F. Schneidewind, L. J. (2008, Junio 27). IEEE Recommended Practice on Software Reliability. New York, NY 10016-5997, USA. Oracle. (2014). http://www.oracle.com. Ragab, S. a. (2010). Object oriented design metrics and tools a survey. In Informatics and Systems (INFOS), 2010 The 7th International Conference on (pp. 1-7). Rathore, S. a. (2012). Investigating object-oriented design metrics to predict fault-proneness of software modules. In Software Engineering (CONSEG), 2012 CSI Sixth International Conference on (pp. 1-10). doi:10.1109/CONSEG.2012.6349484 Sommerville, I. (2007). Software Engineering. Pearson Education. Wahid, M., & Almalaise, A. (2011). JUnit framework: An interactive approach for basic unit testing learning in Software Engineering. Engineering Education (ICEED). doi:10.1109/ICEED.2011.6235381 Autorización y renuncia Los autores del presente artículo autorizan al Instituto Tecnológico de Orizaba (ITO) para publicar el escrito en la revista electrónica “Coloquio de investigación multidisciplinaria” con registro(ISSN2007$8102 en su edición 2014. El ITO o los editores no son responsables ni por el contenido ni por las implicaciones de lo que está expresado en el escrito.

Con el advenimiento de la automatización del desarrollo de software, se hizo patente que necesitaríamos más que un simple usuario beta para lograr alcanzar las normas internacionales “de madurez”. Necesitamos un usuario beta programador, es decir, una persona que tenga la capacidad de “hablar” diversos lenguajes de programación como base y que luego escoja las herramientas de prueba más adecuadas en cada caso, a fin de automatizar las pruebas de software para mantenerse al día con el desarrollo continuo de software.


En este siglo XXI, los equipos pronto comenzaron a sobrepasar las capacidades de uso de sus propietarios y la potencia de cálculo nos permitió usarlos más allá del uso común y corriente. Una de esas tareas es la ejecución de herramientas para pruebas, orientadas hacia el campo que nos incumbe aquí: la monitorización. Las herramientas para pruebas se utilizan, por ejemplo, en la monitorización de Caja Abierta y Cerrada, y en el artículo sobre la optimización de rendimiento web os nombramos algunas de ellas (“Selenio, TestingWhiz y TestCompleto”). Por supuesto, Pandora FMS y la flexibilidad que le caracteriza combina todo ello en la Monitorización UX PWR. Os invitamos a leer dichas publicaciones y regresar con nosotros a este artículo para profundizar en las herramientas para pruebas.
×