¿Qué es un servicio de Kafka?

Copiar URL

Es una oferta de servicios de nube de la plataforma de transmisión de datos denominada Apache Kafka. 

No es sencillo implementar Apache Kafka según sea necesario, sobre todo en un entorno de nube híbrida. Por eso muchos usuarios que se dedican a la transmisión de datos eligen un servicio de Kafka en el que la gestión de la infraestructura y el sistema estén a cargo de un proveedor de servicios.

Pruebe Kafka sin costo

Apache Kafka es una plataforma distribuida y open source de transmisión de datos que permite publicar, almacenar y procesar flujos de registros de forma inmediata, así como también suscribirse a ellos. Está diseñada para administrar los flujos de datos de varias fuentes y distribuirlos a diversos usuarios.

Apache Kafka se creó para trabajar con enormes cantidades de datos; por eso, es la solución adecuada para las aplicaciones empresariales. Además, permite gestionar la transmisión de datos con rapidez, escalabilidad horizontal y tolerancia a los fallos.

Apache Kafka es ideal para los desafíos del big data. En muchos casos prácticos de procesamiento, como el IoT y las redes sociales, los datos aumentan exponencialmente y pueden sobrecargar en poco tiempo una aplicación diseñada en función del volumen de datos actual.

Apache Kafka es una excelente opción para los desarrolladores que trabajan con microservicios y que usan la integración asíncrona y basada en los eventos, ya que puede potenciar el uso de la integración sincrónica y de las interfaces de programación de aplicaciones (API).

Obtenga más información sobre Apache Kafka

Recursos de Red Hat

La transmisión de datos es el flujo permanente de información inmediata, que suele representarse como un registro actualizado de los cambios o los eventos que se hayan producido en un conjunto de datos.

Los casos prácticos de transmisión de datos pueden incluir cualquier situación que requiera una respuesta inmediata a distintos eventos, desde las operaciones financieras hasta los datos del Internet de las cosas (IoT) y el control de pacientes en hospitales. 

El software que interactúa con los datos transmitidos permite procesarlos en el instante en el que se reciben; para ello, por lo general utiliza el modelo de arquitectura basada en eventos.

Con un modelo de flujo de eventos, los programas que los consumen pueden leerlos desde cualquier parte del flujo y unirse a él en cualquier momento. Un evento básico de transmisión de datos incluye una clave, un valor y una marca de tiempo. Una plataforma de transmisión de datos recibe eventos y procesos, o transforma el flujo de eventos. El procesamiento del flujo de eventos se puede usar para encontrar patrones en los flujos de datos.

Obtenga más información sobre la transmisión de datos

A pesar de todos los beneficios de Apache Kafka, implementarlo en un entorno de nube híbrida a escala puede ser muy complejo. Los servicios de transmisión de datos tienen requisitos mucho más estrictos que otras aplicaciones de datos. 

Los flujos de datos deben enviar información secuenciada de manera inmediata, y deben ser uniformes y estar disponibles todo el tiempo. La cantidad de datos sin procesar en un flujo puede aumentar rápidamente. Los flujos de datos deben dar prioridad a la secuenciación, la uniformidad y la disponibilidad de los datos, incluso en los períodos de mayor actividad. También deben estar diseñados para resistir en caso de fallas parciales del sistema.

En un entorno distribuido de nube híbrida, un clúster de transmisión de datos exige que se tengan en cuenta algunos aspectos importantes. Los brokers de datos de Apache Kafka son sistemas con estado y deben preservarse en caso de que se reinicie el equipo. El ajuste requiere una organización minuciosa de los sistemas, para garantizar que los servicios de mensajería funcionen según lo previsto y que no se pierda ningún registro.

Por estos desafíos, muchos usuarios de Apache Kafka eligen un servicio gestionado de nube en el que la administración de la infraestructura y el sistema están a cargo de un proveedor de servicios.

Algunas de las ventajas de usar un servicio de Kafka son:

  • La gestión de la infraestructura está garantizada, lo cual permite que los equipos se concentren en el desarrollo de aplicaciones y en otras competencias importantes.
  • Mayor velocidad en el desarrollo de aplicaciones, ya que los equipos pueden comenzar a diseñarlas de inmediato e implementar nuevas tecnologías con rapidez.
  • Un gran ecosistema de servicios de nube adicionales, que también simplifican la distribución de aplicaciones basadas en flujos.
  • Conectores que vinculan los brokers de Kafka con los servicios distribuidos, lo cual permite consumir y compartir los datos transmitidos entre las aplicaciones y los sistemas con mayor facilidad.
  • Precios basados en el consumo, para que los clientes solo paguen por lo que necesitan en ese momento.

Los clústeres de Apache Kafka que se ejecutan en una plataforma gestionada de Kubernetes pueden extenderse a los entornos locales y a las nubes públicas, privadas o híbridas, y utilizar diferentes sistemas operativos.
 

Obtenga más información sobre Kafka en Kubernetes
Hub

Blogs de Red Hat

Aquí encuentras la información más reciente sobre nuestros clientes, partners y comunidades open source.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

Integración de las aplicaciones

La integración de las aplicaciones consiste en conectar diferentes sistemas y aplicaciones al permitirles trabajar en conjunto mediante el intercambio de datos y el uso de servicios.

¿Qué es una API de REST?

Una API de REST, o API de RESTful, es una interfaz de programación de aplicaciones que se ajusta a los límites de la arquitectura REST. REST significa transferencia de estado representacional.

¿Qué es una API? | Red Hat

Descubre qué es una API o interfaz de programación de aplicaciones, cómo funciona y por qué son esenciales para la integración de aplicaciones. Aprende más con Red Hat.

Integración: lecturas recomendadas