Me llegaron ests libros de web code geeks :
|
Me llegaron ests libros de web code geeks :
|
EBOOK | |
Companies that begin working with containerized applications often aren’t prepared for the challenge of container networking. In this new eBook, Michael Hausenblas, a member of Red Hat’s OpenShift team, provides a detailed look at the many challenges of container networking, container orchestration, and service discovery, and shares several available solutions. Along the way, you’ll learn the capabilities of many open source tools, including Kubernetes.
| |
|
Pants organiza las diversas herramientas y pasos que procesan su código fuente en software implementable, que incluyen:
Pants es similar a herramientas como make, ant, maven, gradle, sbt, bazel y otras. Su diseño se basa en ideas e inspiración de estas herramientas anteriores, al tiempo que optimiza la velocidad, la corrección y la ergonomía en los casos de uso del mundo real de hoy.
Lo que me llamo la atención es que soporta, Python, Shell, Docker, Go, Java y Scala. Esta bueno para equipos que tengan que trabajar con varios lenguajes y tecnología y pueden compilar con una sola herramienta.
Dejo link: https://www.pantsbuild.org/
Antes de empezar tenemos que instalar Zookeper, porque Kafka depende de este, pero lo que podemos hacer es un docker compose que instale todo y listo.
version: '2'
services:
zookeeper:
image: confluentinc/cp-zookeeper:latest
environment:
ZOOKEEPER_CLIENT_PORT: 2181
ZOOKEEPER_TICK_TIME: 2000
ports:
- 22181:2181
kafka:
image: confluentinc/cp-kafka:latest
depends_on:
- zookeeper
ports:
- 29092:29092
environment:
KAFKA_BROKER_ID: 1
KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka:9092,PLAINTEXT_HOST://localhost:29092
KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,PLAINTEXT_HOST:PLAINTEXT
KAFKA_INTER_BROKER_LISTENER_NAME: PLAINTEXT
KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
Como se puede ver tenemos 2 containers, uno para zookeper y otro para kafka. Lo que hacemos es un archivo docker-compose.yml, lo guardamos en un directorio y luego corremos el siguiente comando (en ese directorio) :
docker-compose up -d
Ahora vemos si esto funciona con el comando grep en el log de kafka :
docker-compose logs kafka | grep -i started
Si encontramos algunas lineas, estamos.
Lo proximo a hacer es conectarnos con Kafka tool pero eso es una historia para otro post.
Esto es muy fácil, en dockerhub hay una imagen de cassandra : https://hub.docker.com/_/cassandra
Bueno, en consola ponemos :
$ docker run --name some-cassandra --network some-network -d cassandra:tag
Donde some-cassandra es el nombre de la base, network es el modo de red que va utilizar y tag es la versión. Yo puse algo así:
docker run --name demo4-cassandra --network host -d cassandra:4.0
Y listo, cassandra funcionando.
Ahora tenemos que crear el keyspace, vamos a entrar en el container con el comando:
docker exec -it some-cassandra bash
Que es similar a lo que ya vimos antes, yo utilice este :
docker exec -it demo4-cassandra bash
y dentro del container vamos donde esta cassandra :
cd /opt/cassandra/bin
cqlsh
Y ejecutamos el comando para crear el keyspace :
cqlsh> CREATE KEYSPACE IF NOT EXISTS demo WITH REPLICATION = { 'class' : 'NetworkTopologyStrategy', 'datacenter1' : 1 };
cqlsh> use demo;
|
|