Talend: Kafka i MongoDB – strumień danych

W dzisiejszym świecie bardzo często spotykamy się z wymaganiami dotyczącymi przetwarzania danych w czasie rzeczywistym. Na rynku istnieje dość sporo narzędzi, które nam to pozwalają osiągnąć. W czołówce możemy wyróżnić:…

Czytaj dalej Talend: Kafka i MongoDB – strumień danych

Apache Spark: Jak zapisać DataFrame w postaci jednego pliku na HDFS?

Jeśli chce zapisać DataFrame jako plik na HDFS to może się pojawić problem, że zostanie on zapisany w postaci wielu plików. Jest to jak najbardziej poprawne zachowanie i wynika to ze zrównoleglania pracy w Apache Spark.

Czytaj dalej Apache Spark: Jak zapisać DataFrame w postaci jednego pliku na HDFS?