13 - Qualidade » Histórico » Versão 1
Redmine Admin, 11/05/2019 22:02
1 | 1 | Redmine Admin | h1. 1.3 - Qualidade |
---|---|---|---|
2 | |||
3 | h3. 1.3.1 Tipos de testes %*{color:red}obrigatórios%* aos projetos envolvendo Fábrica de Software |
||
4 | |||
5 | * %*{color:green}Teste funcional/de aceitação*%: assegurar a funcionalidade da solução de software (aplicação, sítio, portal ou aplicativo móvel), incluindo navegação, entrada de dados, processamento e resposta, verificando se a aplicação está pronta e pode ser utilizada pelos usuários finais. As partes, ou módulos, do sistema são testadas em conjunto |
||
6 | |||
7 | * %*{color:green}Teste unitário*%: processo em que se verificam as menores unidades de software desenvolvidas (pequenas partes ou unidades da aplicação). O objetivo é encontrar falhas de funcionamento dentro de uma pequena parte da aplicação funcionando independentemente do todo; |
||
8 | |||
9 | * %*{color:green}Teste de interface*%: verifica se a navegabilidade e os objetivos das telas funcionam como especificados; valida se a navegação através da solução de software reflete corretamente as especificações dos requisitos, incluindo janela-a-janela e campo-acampo, além de uso dos métodos de acesso (teclas tab, movimentos de mouse, teclas de atalho etc.). Além disso, no caso do MP, deve-se verificar a conformidade com padrões de mercado e governamentais, dentre eles o e-MAG – Modelo de Acessibilidade de Governo Eletrônico (www.governoeletronico.gov.br/acoes-e-projetos/e-MAG); |
||
10 | |||
11 | h3. 1.3.2 Testes não funcionais e outros tipos passíveis de serem aplicados aos projetos: |
||
12 | |||
13 | * %*{color:green}Teste de carga*%: processo que testa e mede a alteração no desempenho da solução de software sob um volume maior de carga, como, por exemplo, a carga máxima esperada em um determinado momento no ambiente de produção; |
||
14 | * %*{color:green}Teste funcional/de aceitação*%: assegurar a funcionalidade da solução de software (aplicação, sítio, portal ou aplicativo móvel), incluindo navegação, entrada de dados, processamento e resposta, verificando se a aplicação está pronta e pode ser utilizada pelos usuários finais; |
||
15 | * %*{color:green}Teste de desempenho*%: processo que testa e mede o desempenho da solução de software em uma situação normal de uso, bem como o quanto a solução requer de recursos de hardware e o tempo de espera necessário entre as ações e transações, com base no cenário esperado normalmente para ambiente de produção; |
||
16 | * %*{color:green}Teste de estresse*%: processo que busca descobrir qual a carga máxima suportada pela solução de software. Esse limite pode ser um valor muitas vezes acima do esperado na carga máxima; |
||
17 | * %*{color:green}Teste de exploração*%: processo em que o ser humano explora as funcionalidades da aplicação; |
||
18 | * %*{color:green}Teste de falha e recuperação*%: validar se o processo de recuperação (manual ou automático) restaurou corretamente os dados diretamente afetados em caso de falha; |
||
19 | * %*{color:green}Teste de segurança*%: permite avaliar as vulnerabilidades do software em relação à segurança, tais como ataques de negação de serviço, Cross-Site Scripting (XSS) e SQL Injection, para que sejam corrigidas antes de ser operacionalizado em ambiente de produção. Verificar se os requisitos de segurança estabelecidos pelas normas e diretrizes do MP estão sendo atendidos. Inclui-se neste tipo de teste a inspeção de códigos-fonte para garantia de desenvolvimento de software seguro; |
||
20 | * %*{color:green}Teste de integridade de dados*%: para garantir que os métodos e processos de acesso ao banco de dados funcionem adequadamente e sem corromper os dados; |
||
21 | * %*{color:green}Teste de regressão*%: consiste em se aplicar, a cada nova versão do software ou a cada ciclo, todos os testes que já foram aplicados nas versões ou ciclos de teste anteriores para garantir que manutenções (corretivas e/ou evolutivas) não tenham afetado alguma funcionalidade existente; |
||
22 | * %*{color:green}Smoke test*%: subconjunto de casos de testes que cobrem as funcionalidades mais importantes de um componente ou sistema, para verificar se as funções cruciais do software executam corretamente. |
||
23 | |||
24 | |||
25 | |||
26 | |||
27 | |||
28 | |||
29 | |||
30 | |||
31 | |||
32 | h3. 1.3.2 Artefatos de Teste previstos no Contrato |
||
33 | |||
34 | Os relatórios gerados pelas ferramentas de teste automatizados serão aceitos de forma equivalente aos documentos produzidos de forma manual desde que acordados com o Líder de Projeto. |
||
35 | |||
36 | > Exemplos : Relatórios de ferramentas como o Sonar, Jacoco, Serenity conforme Arquitetura de Referência a ser utilizada no Produto. |
||
37 | |||
38 | Os modelos de documento abaixo devem ser utilizados nos casos excepcionais que se justifique a não utilização de ferramenta automatizada para execução de testes e geração dos relatórios; |
||
39 | |||
40 | * [[1.3.3 - Estratégia de Testes]] |
||
41 | * [[1.3.4 - Plano de Testes]] |
||
42 | * [[1.3.5 - Roteiro de Testes]] |
||
43 | * [[1.3.6 - Evidência de Testes]] |
||
44 | * [[1.3.7 - Evidência de Defeitos]] |
||
45 | * [[1.3.8 - Relatório de Testes]] |