executor
pipeline
executor | pipeline | |
---|---|---|
1 | 52 | |
7 | 8,304 | |
- | 0.5% | |
0.0 | 9.7 | |
2 months ago | 7 days ago | |
Go | Go | |
MIT License | Apache License 2.0 |
Stars - the number of stars that a project has on GitHub. Growth - month over month growth in stars.
Activity is a relative number indicating how actively a project is being developed. Recent commits have higher weight than older ones.
For example, an activity of 9.0 indicates that a project is amongst the top 10% of the most actively developed projects that we are tracking.
executor
-
DadosJusBr: Go ou Python a serviço da cidadania.
PT-BR DadosJusBr: Go e Python a serviço da cidadania. Você já tentou acessar dados em sites de órgãos públicos? No Brasil, a Lei Federal 12.527/2011, ou mais comumente conhecida como Lei de Acesso à Informação (LAI), diz que é “obrigatória a divulgação em sítios oficiais da rede mundial de computadores (internet)” dos dados de gastos públicos. Porém, a LAI pouco diz sobre a forma como esses dados devem ser disponibilizados. Por isso, nos sites dos órgãos são encontrados arquivos em diversos formatos (pdf, html, planilhas eletrônicas, json e etc), além disso nomenclaturas e formatação são muitas vezes diferentes para cada órgão. Devido a essas características realizar um controle social e financeiro sobre essa enorme quantidade de dados de gastos públicos é uma tarefa difícil para uma pessoa. Nesse ponto, o DadosJusBr surge com o objetivo de denunciar e libertar esses dados, apresentar de forma detalhada, organizada e unificada os dados de gastos com remuneração dos órgãos que constituem o sistema de justiça brasileiro, assim facilitando o acesso e promovendo o controle social sobre esses gastos do poder judiciário, ministério público, defensoria pública e procuradorias. O DadosJusBr utiliza a inteligência de dados para a ação cidadã, promovendo um acesso mais democrático e fácil aos dados de remuneração do sistema de justiça brasileiro. No DadosJusBr podemos entender como cada juiz, promotor e desembargador são remunerados. Quais auxílios recebem? Quais os valores destes auxílios? Quanto além do salário um funcionário recebeu em determinado mês? Quanto um órgão gastou em determinado mês? Todas essas perguntas podem ser respondidas através do DadosJusBr. Sim, até aqui tudo bem, Mas como é o processo? Considerando o contexto do DadosJusBr, onde o executor é capaz de definir, configurar e executar um pipeline, que por sua vez é uma sequência de estágios onde a saída de um estágio é a entrada do próximo. Este pipeline é capaz de atingir a tarefa de libertação de dados do sistema judiciário brasileiro tem os seguintes estágios: Pipeline DadosJusBR Coleta: Etapa responsável por encontrar, fazer o download dos arquivos e consolidar/traduzir as informações para um formato único do DadosJusBr; Validação: Responsável por fazer validações nos dados de acordo a cada contexto; Empacotamento: Responsável por padronizar os dados no formato de datapackages; Armazenamento: Responsável por armazenar os dados extraídos, além de versionar também os artefatos baixados e gerados durante a coleta; Cada programa capaz de cumprir um estágio é dockerizado, ou seja, escrito de forma capaz de ser executado pela ferramenta docker, com os comandos “docker build”(que constrói uma imagem a partir das especificações definidas) e “docker run”(que executa essa imagem em um container). A dockerização nos permite codificar os coletores em diferentes linguagens, no caso do DadosJusBr, coletores em Golang e Python são aceitos. Construção e execução do Pipeline DadosJusBR No Pipeline, cada estágio, exceto o primeiro, recebe a saída padrão do estágio anterior, essa é uma forma de compartilharem informações. Também podemos definir um estágio chamado ErrorHandler, que será construído e executado quando ocorrer um erro no fluxo padrão. Consideramos como fluxo padrão a sequência de estágios descrita na definição do pipeline. Compartilhamento de informações dentro do Pipeline DadosJusBR Com esse conhecimento, é possível executar todos os estágios do pipeline do executor do DadosJusBr, adicionando as variáveis de ambiente o mês, ano e coletores que queremos realizar o processo. . . . Parte do texto foi extraído da postagem de Lorena, disponível no link. Todo o trabalho envolvido no processo foi desenvolvido pelos integrantes da organização DadosJusBr. Para mais detalhes, dúvidas ou sugestões você também pode consultar o código completo do tutorial em: https://github.com/dadosjusbr/executor/tree/master/tutorial e/ou entrar em contato via e-mail: [email protected].
pipeline
-
14 DevOps and SRE Tools for 2024: Your Ultimate Guide to Stay Ahead
Tekton
- GitHub Actions could be so much better
-
Distributed Traces for Testing with Tekton Pipelines and Tracetest
Tekton is an open-source framework for creating efficient CI/CD systems. This empowers developers to seamlessly construct, test, and deploy applications across various cloud environments and on-premise setups.
-
Practical Tips for Refactoring Release CI using GitHub Actions
Despite other alternatives like Circle CI, Travis CI, GitLab CI or even self-hosted options using open-source projects like Tekton or Argo Workflow, the reason for choosing GitHub Actions was straightforward: GitHub Actions, in conjunction with the GitHub ecosystem, offers a user-friendly experience and access to a rich software marketplace.
-
Wolfi: A community Linux OS designed for the container and cloud-native era
[2]: https://github.com/tektoncd/pipeline/issues/5507#issuecommen...
- Nu stiu ce sa fac, orice sfat e bine venit
-
What are some good self-hosted CI/CD tools where pipeline steps run in docker containers?
Drone, or Tekton, Argo Workflows if you’re on k8s
-
Is Jenkins still the king?
If you want a step up, I would recommend trying out Tekton Pipelines. It’s a very popular ci tool, and it runs on Kubernetes. Yes, this would involve setting up a Kubernetes cluster but please don’t run for the hills! You can setup a Kubernetes cluster and install Tekton on top of it with minimal setup using minikube (see here. This would be a great joint exercise as it will give you a bit of Kubernetes understanding alongside it, and the mechanisms of Tekton are a little trickier than GitHub actions imo. It’s all much the same though.
- Is there a way to run a one-off pod that would work as a command line tool?
-
K8s powered Git push deployments
I've recently found this quote by Kelsey Hightower:
"I'm convinced the majority of people managing infrastructure just want a PaaS. The only requirement: it has to be built by them."
Source: https://twitter.com/kelseyhightower/status/85193508753294540...
In the last few weeks, I've experimented a bit with Flux (https://fluxcd.io/), Tekton (https://tekton.dev/) and Cloud Native Buildpacks (https://buildpacks.io/) on how to provide K8s powered git push deployments without using a dedicated CI/CD server.
My project is still in early alpha stage and just a proof of concept :-) My vision is to expand it into an Open Source PaaS in the future.
Do you think the above quote is true? What does an open source PaaS need to be like in order to be accepted by software developers?
Some other projects have been discontinued in the past (like Flynn or Deis) or were created before the Kubernetes era.
Is it the right direction to provide a Heroku like solution based on K8s or is it better to provide an Open Source Infrastructure as Code library with building blocks to avoid everything from scratch?
What are some alternatives?
coletores - Coletores de dados sobre remunerações do sistema de justiça brasileiro
dagger - Application Delivery as Code that Runs Anywhere
argo-cd - Declarative Continuous Deployment for Kubernetes
kubevela - The Modern Application Platform.
tekton-argocd-poc - This a PoC using Tekton (for CI) and ArgoCD (CD). It uses a local k8s cluster (K3D)
NUKE - 🏗 The AKEless Build System for C#/.NET
skaffold - Easy and Repeatable Kubernetes Development
earthly - Super simple build framework with fast, repeatable builds and an instantly familiar syntax – like Dockerfile and Makefile had a baby.
gitlab-ci-python-library
luigi - Luigi is a Python module that helps you build complex pipelines of batch jobs. It handles dependency resolution, workflow management, visualization etc. It also comes with Hadoop support built in.
woodpecker - Woodpecker is a simple yet powerful CI/CD engine with great extensibility.
werf - A solution for implementing efficient and consistent software delivery to Kubernetes facilitating best practices.