doc には KeyVault + SecretScope 使えって書いてあるけど Standard Tier だと SecretScope 使えんかったのでメモ。
Azure Data Lake Storage Gen2-Azure Databricks を使ってみる – Workspace | Microsoft Docs
SharedKey使っても読み込める。
val acc = "ストレージアカウント"
val cont = "コンテナ"
val adls_path = "abfss://" + cont + "@" + acc + ".dfs.core.windows.net/"
spark.conf.set("fs.azure.account.auth.type."+ acc +".dfs.core.windows.net", "SharedKey")
spark.conf.set("fs.azure.account.key."+ acc +".dfs.core.windows.net", "キー")
val df = spark.read.option("header", "true").option("delimiter", ",").csv(adls_path + "myfile.csv")
display(df)
あとは blob としてマウントする方法も可。
val acc = "ストレージアカウント"
val cont = "コンテナ"
val blob_path = "wasbs://" + cont + "@" + acc + ".blob.core.windows.net/"
dbutils.fs.mount(
source = blob_path
mountPoint = "/mnt/data",
extraConfigs = Map("fs.azure.account.key." + acc + ".blob.core.windows.net" -> "キー"))
val df = spark.read.option("header", "true").option("delimiter", ",").csv("/mnt/data/myfile.csv")
display(df)