Korzystam z Spark-CSV do ładowania danych do DataFrame. Chcę zrobić proste zapytanie i wyświetlić zawartość:
val df = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").load("my.csv")
df.registerTempTable("tasks")
results = sqlContext.sql("select col from tasks");
results.show()
Col wydaje się być obcięty:
scala> results.show();
+--------------------+
| col|
+--------------------+
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-06 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
+--------------------+
Jak wyświetlić pełną treść kolumny?
dataFrame.writeStream.outputMode("append").format("console").option("truncate", "false").start()
Jeśli umieścisz
results.show(false)
, wyniki nie zostaną obcięteźródło
false
tutaj ma zastosowanie komentarz do odpowiedzi TomTom101 na temat .results.show(20, False)
. Ten, o którym wspomniałeś, da błąd.scala
obie opcje są ważne.results.show(false)
orazresults.show(20, false)
Inne rozwiązania są dobre. Jeśli to są twoje cele:
Te dwie linie są przydatne ...
Utrwalając, 2 akcje executorów, policz i pokazuj, są szybsze i bardziej wydajne podczas używania
persist
lubcache
utrzymywania tymczasowej struktury ramek danych wewnątrz executorów. Dowiedz się więcej o trwałości i pamięci podręcznej .źródło
Poniższy kod pomoże wyświetlić wszystkie wiersze bez obcięcia w każdej kolumnie
źródło
df
że należy to zbierać dwukrotnie?results.show(20, False)
lub wresults.show(20, false)
zależności od tego, czy używasz go w Javie / Scali / Pythonźródło
results.show(false)
pokaże pełną treść kolumny.Pokaż metodę domyślnie limit do 20, a dodanie liczby przed
false
pokaże więcej wierszy.źródło
spróbuj tego polecenia:
źródło
df
że należy je zbierać dwukrotnie?results.show(20,false)
zrobił mi lewę w Scali.źródło
Wewnątrz Databricks można wizualizować ramkę danych w formacie tabelarycznym. Za pomocą polecenia:
Będzie to wyglądać
źródło
Używam wtyczki rozszerzenie Chrome działa całkiem dobrze:
[ https://userstyles.org/styles/157357/jupyter-notebook-wide][1]
źródło
Spróbuj tego w scala:
Metoda show przyjmuje liczbę całkowitą i wartość logiczną, ale df.count zwraca Long ... więc rzutowanie typu jest wymagane
źródło
W c #
Option("truncate", false)
nie obcina danych na wyjściu.źródło
Poniższa odpowiedź dotyczy aplikacji Spark Streaming.
Ustawiając opcję „obcinaj” na wartość false, możesz nakazać wyjściowemu ujściu, aby wyświetlał pełną kolumnę.
źródło