Projeto final da matéria de Progamação para Sistemas Paralelos e Distribuídos da FGA utilizandos conceitos de Spark Streaming e Apache Kafka
$ docker-compose -f docker-compose.[compose desejado].yml up
$ docker-compose -f docker-compose.spark_worker.yml up --scale spark-worker=N
# Para saber em que portas os serviços foram abertos
docker-compose ps
# Para criar novas filas
$ docker exec -it kafka /opt/bitnami/kafka/bin/kafka-topics.sh --create --bootstrap-server 192.168.0.21:9092 \
--topic NomeTópico --replication-factor 1 --partitions 1
# Para se inscrever em uma fila como produtor
$ docker exec -it kafka /opt/bitnami/kafka/bin/kafka-console-producer.sh --topic testcluster \
--bootstrap-server 192.168.0.21:9092
# Para se inscrever em uma fila como consumidor
$ docker exec -it kafka /opt/bitnami/kafka/bin/kafka-console-consumer.sh --topic testcluster \
--from-beginning --bootstrap-server 192.168.0.21:9092
$ spark-submit --packages org.apache.spark:spark-sql-kafka-0-10_2.12:3.2.1 contabilizador_kafka.py \
IntervaloDeJanela 192.168.0.21:9092 NomeFila
$ npm install
$ npm run start:gateway
$ npm run start:email
$ pip install -r requirements.txt
$ python gerador_relatorio.py