deployando site estático no S3 pt2: github actions não é seu amigo
Esta é a parte 2, sem hard requirement na parte 1. Entretanto, se ainda quiser ver a parte 1, onde lido com AWS CDK clique aqui.
intro
Então, *dá uma boa respirada*, sabe aquela pipeline no Github Actions? Ela poderia ser melhor.
Melhor? Eu quis dizer mais barata. Se você usa apenas repositórios públicos - a paz de Cristo para você, te vejo na missa semana que vem - porque aparentemente os runners não tem limitação de tempo e nem de artefatos.
Se procurarmos por NEXTJS GITHUB ACTIONS DEPLOYMENT GOOGLE PESQUISAR e afins, geralmente os Workflows são quebrados em 2 partes (removi as partes desnecessárias):
|
|
O detalhe aqui é que o workflow é quebrado em 2: um faz build e sobe o artefato, e outro “baixa” esse artefato e o deploya.
O exemplo acima deploya direto para o Github Actions então talvez não seja claro, esse aqui explicitamente sobe e baixa o artefato.
|
|
ineficácias iniciais
Então vamos analisar o que acontece. Obviamente pulando vários passos e simplificando.
- Primeiro tem que achar um runner para o job
build
, que é rodado. - No final, ele zipa (tar?) o artefato etc.
- Agora que job
build
terminou, acha um runner para rodar o jobpublish-s3
. - Esse job tem que BAIXAR o zip que você acabou de dar upload, e aí faz o deploy e yadda yadda.
Visivelmente há 2 ineficácias, que na prática são a mesma:
- Tem que esperar 2 runners serem scheduled, o que leva tempo.
- Precisa zipar e fazer upload do artefato, e logo em seguida baixá-lo.
Claramente duas ineficácias que podem ser resolvidas rodando tudo num job só :^)
outros problemas ensaboados
Outros problema que já toquei acima é que estes artefatos custam DIÑERO (para repos privados). Aí pra todo santo build (caso faça deploys, ou dry-runs para PRs) você vai lá e salva mais um artefato.
No meu caso era ainda pior, porque rodava uma ferramenta para otimizar imagens para diferentes resoluções, e o site possuía diversas imagens, chegando a dar uns 70MB cada build.
E pra piorar, você não precisa desse artefato depois do deploy. E não tem um jeito fácil de apagá-lo. Até dá para apagar usando a API, mas eu não consegui e nem tive saco de debuggar.
Outra opção é nas próprias configurações do repositório (Actions -> General) colocar uma data de expiração de logs e artefatos. O downside é que mudou um, mudou o outro. É a solução mais fácil, só uma questão de achar um range bom para a retenção.
OOOOOOOOOutro problema é ilustrado por este artigo: The Hidden Cost of Parallel Processing in GitHub Actions | by Wenqi Glantz | Better Programming. Que em resumo, o Github arredonda os tempos gastos de cada runner:
GitHub rounds the minutes and partial minutes each job uses up to the nearest whole minute.
Fonte: About billing for GitHub Actions - GitHub Docs
Então se você tem um Workflow que tem 2 jobs. Um job leva 1m10s e outro leva 1m05s. O total será 4m, porque arredonda cada um deles para 2 e soma. Ao invés de SOMAR e depois arredondar. Para mais infos ver essa discussão.
It’s always in the details :)
A solução, que já ficou clara, é usar “monolithic workflows”. Workflows com só um job que faz tudo.
múltiplos jobs, por quê?
Tá, mas por que tudo isso? Por que geralmente se quebram em vários jobs? Boa pergunta, umas das explicacões que encontrei é que caso queira rodar apenas um pedaço dele, é mais fácil e rápido. Por exemplo, o deploy falhou, mas o build em si está perfeito, então só precisa tentar fazer o deploy novamente.
Além é claro de paralelização, talvez você consiga rodar em paralelo testes + lint + build? Mas aí é outra investigação, no momento tendo a fazer tudo sequencialmente.
Em resumo
- Apague artefatos via API ou configure seu repositório para expirar os artefatos
- Escreva o máximo possível num job, e só quebre quando for muito óbvio os ganhos de paralelização. Por exemplo, rodando a mesma pipeline num outro OS.
- É no detalhe, no fine print, que o diabo trabalha.