Skip to content
This repository has been archived by the owner on Aug 7, 2018. It is now read-only.

Propor um novo modelo de avaliação de QA. #420

Open
diraol opened this issue Mar 22, 2017 · 11 comments
Open

Propor um novo modelo de avaliação de QA. #420

diraol opened this issue Mar 22, 2017 · 11 comments

Comments

@diraol
Copy link
Member

diraol commented Mar 22, 2017

Precisamos definir um modelo melhor de avaliação de qualidade de código (cobertura de testes, linters, etc).

Deixo à cargo da equipe da UNB 2017.01 fazer uma proposta! =)

@leonardofl
Copy link
Member

+1

@leonardofl
Copy link
Member

leonardofl commented Mar 25, 2017 via email

@diraol
Copy link
Member Author

diraol commented Mar 25, 2017

Oi Léo!
Adicionei de forma experimental mesmo, para testarmos e ver como cada um funciona e o que se adapta melhor às nossas necessidades (?! rs)

Sobre a diferença entre eles, ainda não consegui ver. se o pessoal da UNB puder ajudar será uma ajuda super bem vinda! ;)

Outra coisa, fiz algumas alterações no setup da nossa conta do github de forma que agora PR só pode ser aceita se passar por review de alguém e se estiver passando nos testes (inclusive no code climate).

@leonardofl
Copy link
Member

PR só pode ser aceita se passar por review

humm... ainda não saquei tão bem esse review, mas acho q no próximo PR eu capto melhor.

e se estiver passando nos testes (inclusive no code climate).

hum, não tendi muito... pq o code climate não tá vendo legal os testes... tá vendo só uma app... pra checar o status da build seria melhor pegar do travis...

@diraol
Copy link
Member Author

diraol commented Apr 2, 2017

pessoal do time @radar-parlamentar/unb-mes-2017-1 , num outro projeto em que estou trabalhando estamos testando neste instante migrar do travis + codeclimate para o scrutinizer. Aparentemente ele consegue fazer os testes (papel atual do travis) e também a parte de code-quality (codacy, codeclimeate, coverage/coveralls, etc). Acho que pode ser uma boa solução em termos de reduzir o número de ferramentas utilizadas e setups a serem feitos, integrando tudo num lugar só!

Se quiserem dar uma olhada no setup que temos neste outro projeto, vocês pode ver aqui:

Se não me engano os arquivos mais importantes a serem olhados são:

[1] esse é para doctest do projeto, não temos isso muito bem alinhado até agora no Radar, mas acho que para um futuro passo do projeto pode ser muito legal, pode ajudar muito no entendimento do projeto gerando documentação automatizada (com Sphinx) a partir das documentações das próprias classes. Eu não colocaria isso nesse semestre, mas estou documentando aqui para manter o registro ;)

@suzukijessica
Copy link
Contributor

suzukijessica commented Apr 3, 2017 via email

@diraol diraol added this to the UNB.MES.2017.1 milestone Apr 5, 2017
@diraol
Copy link
Member Author

diraol commented May 20, 2017

@cemsbr, rola você dar uma ajuda para nós automatizarmos teste de QA (pylama talvez?) aqui no Radar? =)

@cemsbr
Copy link

cemsbr commented May 21, 2017

Tentei me atualizar em relação às ferramentas há não muito tempo atrás e talvez eu possa ser útil. Acho que vão gostar das várias alternativas que testei em um projeto meu. Ele está no começo, mas já dá uma boa ideia das ferramentas pelo readme e por um PR propositadamente ruim.

Particularmente, eu achei que o scrutinizer tem um conjunto de features maior. Porém, gostei dos comentários do coveralls no PR e, caso queira algo ainda mais detalhado sobre testes, veja o comentário do codecov. Eu ficaria com scrutinizer + coveralls, mas ninguém melhor para opinar do que os devs do radar!

@cemsbr
Copy link

cemsbr commented May 21, 2017

Ah, sobre pylama, o mantenedor não é muito ativo e as ferramentas estão mudando rapidamente, mesmo o pycodestyle. Se eu tivesse que configurar um novo projeto, eu colocaria pelo menos pylint e depois complementaria com outras avaliações caso ele não tenha (não lembro de cabeça), como por exemplo pydocstyle (docstrings), radon (complexidade), isort (imports), etc.

@leonardofl
Copy link
Member

leonardofl commented May 31, 2017 via email

@cemsbr
Copy link

cemsbr commented Jun 3, 2017

Depois de alguns problemas com o pylama, resolvi criar o yala que pode interessar a vocês.

Sign up for free to subscribe to this conversation on GitHub. Already have an account? Sign in.
Projects
None yet
Development

No branches or pull requests

4 participants