连接到 Spotfire Analyst
本文介绍了如何在 Azure Databricks 群集或 Azure Databricks SQL 仓库上使用 Spotfire Analyst。
Azure Databricks 工作区中的群集或 SQL 仓库。
群集或 SQL 仓库的连接详细信息,特别是“服务器主机名”、“端口”和“HTTP 路径”值。
一个 Azure Databricks 个人访问令牌。 要创建个人访问令牌,请遵循适用于工作区用户的 Azure Databricks 个人访问令牌中的步骤。
- 在 Spotfire Analyst 中的导航栏上,单击加号(“文件和数据”)图标,然后单击“连接到”。
- 选择“Databricks”并单击“新建连接” 。
- 在“Apache Spark SQL”对话框中的“常规”选项卡上,对于“服务器”,请输入在步骤 1 中获取的“服务器主机名”和“端口”字段值并以冒号分隔 。
- 对于“身份验证方法”,请选择“用户名和密码” 。
- 对于“用户名”,请输入单词
token
。 - 对于“密码”,请输入在步骤 1 中获取的个人访问令牌。
- 在“高级”选项卡上,对于“Thrift 传输模式”,请选择“HTTP” 。
- 对于“HTTP 路径”,请输入在步骤 1 中获取的“HTTP 路径”字段值 。
- 在“常规”选项卡上,单击“连接” 。
- 成功连接后,在“数据库”列表中选择要使用的数据库,然后单击“确定” 。
在“连接中的视图”对话框中选择数据。
- 浏览 Azure Databricks 中可用的表。
- 将所需的表添加为视图,这些视图将是在 Spotfire 中分析的数据表。
- 对于每个视图,可以决定要包含哪些列。 如果要创建非常具体且灵活的数据选择,则可以访问此对话框中的一系列强大工具,例如:
- 自定义查询。 使用自定义查询,可以通过键入自定义 SQL 查询来选择要分析的数据。
- 提示。 将数据选择留给分析文件的用户。 基于选择的列配置提示。 然后,打开分析的最终用户可以选择限制和查看仅相关值的数据。 例如,用户可以选择特定时间范围内或特定地理区域内的数据。
- 单击“确定”。
选择要分析的数据后,最后一步是选择要如何从 Azure Databricks 检索数据。 将显示要添加到分析中的数据表的摘要,可以单击每个表以更改数据加载方法。
Azure Databricks 的默认选项是“外部”。 这意味着数据表将保留在 Azure Databricks 中的数据库中,并且 Spotfire 将基于你在分析中的操作将不同的查询推送到数据库,以获取相关的数据切片。
还可以选择“已导入”,Spotfire 将预先提取整个数据表,从而可以进行本地内存中分析。 导入数据表时,还可以在 TIBCO Spotfire 的嵌入式内存中数据引擎中使用分析功能。
第三个选项是“按需”(对应于动态 WHERE
子句),这意味着将基于分析中的用户操作提取数据切片。 可以定义条件,这些条件可以是诸如标记或筛选数据或更改文档属性之类的操作。 按需数据加载也可以与“外部”数据表结合使用。