How do you write a CSV back to Azure Blob Storage using Databricks?(如何使用数据库将CSV写回Azure Blob存储?)
本文介绍了如何使用数据库将CSV写回Azure Blob存储?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我正在努力回写Azure Blob存储容器。我可以使用以下内容从容器中读取内容:
storage_account_name = "expstorage"
storage_account_key = "1VP89J..."
container = "source"
spark.conf.set("fs.azure.account.key.{0}.blob.core.windows.net".format(storage_account_name), storage_account_key)
dbutils.fs.ls("dbfs:/mnt/azurestorage")
我尝试了多种方法来回写我的容器,只是在进行搜索,但我找不到一种确定的方法。
这里有一个指向使用SAS密钥的备用密钥的链接,但我不想混合/匹配密钥类型。
Write dataframe to blob using azure databricks
推荐答案
若要写入Blob存储,您只需指定路径,以dbfs:/mnt/azurestorage
:
df.write
.mode("overwrite")
.option("header", "true")
.csv("dbfs:/mnt/azurestorage/filename.csv"))
这将创建一个包含分布式数据的文件夹。如果您正在寻找单个CSV文件,请尝试执行以下操作:
df.toPandas().to_csv("dbfs:/mnt/azurestorage/filename.csv")
如果您只使用 pandas ,您将无法访问dBFS API,因此您需要使用本地文件API,这意味着您的路径必须以/dbfs/
开头,而不是dbfs:/
,如下所示:
df.to_csv(r'/dbfs/mnt/azurestorage/filename.csv', index = False)
这篇关于如何使用数据库将CSV写回Azure Blob存储?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!
沃梦达教程
本文标题为:如何使用数据库将CSV写回Azure Blob存储?


猜你喜欢
- 计算测试数量的Python单元测试 2022-01-01
- 使用公司代理使Python3.x Slack(松弛客户端) 2022-01-01
- YouTube API v3 返回截断的观看记录 2022-01-01
- 我如何透明地重定向一个Python导入? 2022-01-01
- 如何使用PYSPARK从Spark获得批次行 2022-01-01
- 检查具有纬度和经度的地理点是否在 shapefile 中 2022-01-01
- 我如何卸载 PyTorch? 2022-01-01
- CTR 中的 AES 如何用于 Python 和 PyCrypto? 2022-01-01
- ";find_element_by_name(';name';)";和&QOOT;FIND_ELEMENT(BY NAME,';NAME';)";之间有什么区别? 2022-01-01
- 使用 Cython 将 Python 链接到共享库 2022-01-01