为什么Azure数据工厂?
现在,我们的客户应用程序生成的数据越来越指数,特别是数据来自几个不同的产品。组织有几种类型的数据位于云和备用,在结构化、非结构化和半结构化的格式都到达不同的时频和速度。这将是一个关键的任务分析和存储这些数据。Azure数据工厂(ADF)是一个基于云的数据集成服务,完全解决此类复杂场景。
ADF第一存储数据的帮助下一个数据存储湖。一旦存储,数据分析,然后借助管道、ADF变换的数据组织出版。一旦公布数据,我们可以可视化数据的帮助下应用电力BI,画面。
为更深入地了解ADF和它的基本功能,请查看我的同事的博客文章。
日志在Azure数据工厂管道执行文件
数据集成解决方案是复杂的,有许多运动部件和主要的一件事我们的客户想要的是确保他们能够监控数据集成工作流或管道。然而,数据工厂监控只有存储数据的管道运行45天非常有限的信息。但随着日志管道处决,我们可以自定义日志数据存储在Azure数据存储(ADLS)湖的帮助下长时间查询。
如何创建CSV数据日志文件在Azure湖店。
出于演示目的,我已经创建了一个复制表的管道活动将数据从一个文件夹复制到另一个容器ADLS。
现在,我们将看到如何复制数据活动将生成自定义登录. csv文件。我们将开始添加复制数据活动copy-tables旁边画布。
源数据集,我们需要定义查询活动复制数据的来源,我将选择数据集作为on-prem SQL Server通过选择on-prem SQL Server服务有关。
创建源数据集后,我将添加一个查询。这个查询将包含一个管道系统变量和其他指标,我可以检索每个任务。
下面是目前管道系统变量列表。
.DataFactory @pipeline ()——数据工厂的名称
.Pipeline @pipeline ()- - -管道的名称
.RunId @pipeline ()——管道运行的ID
.TriggerType @pipeline ()——类型的触发器调用管道(手册、计划)
.TriggerName @pipeline ()——调用管道的触发器的名称
.TriggerTime @pipeline ()——当触发器调用管道。
查询-
选择“@{管道()。DataFactory_Name DataFactory}’,
“@{管道()。Pipeline_Name管道}’,
“@{活动(copytables) .output.executionDetails [0] .source。Source_Type类型}’,
“@{活动(copytables) .output.executionDetails [0] .sink。Sink_Type类型}’,
“@{活动(copytables) .output.executionDetails [0]。Execution_Status地位}’,
@{活动.output (“copytables”)。rowsRead rowsRead}’,
@{活动.output (“copytables”)。RowsWritten rowsCopied}’
@{活动.output (“copytables”)。CopyDurationInSecs copyDuration}’,
“@{活动(copytables) .output.executionDetails [0]。CopyActivity_Start_Time开始},
“@ {utcnow ()}’CopyActivity_End_Time,
“@{管道()。RunId RunId}’,
“@{管道()。TriggerType TriggerType}’,
“@{管道()。TriggerName TriggerName}’,
“@{管道()。TriggerTime TriggerTime}’
上面的查询将事件的信息写入. csv文件。为此,我们必须定义一个数据集水槽ADLS容器中创建一个目录和CSV日志文件。下面的快照显示了数据集类型的你,我选择了湖存储Azure数据创2 . csv文件格式。
我用以下参数化的路径,将确保日志文件生成正确的文件夹结构和适当的文件名。
在文件名-动态内容
@concat (formatDateTime (convertTimeZone (utcnow (), UTC,中央标准时间),“弟弟”),“/”,项目().filename,“_”, formatDateTime (convertTimeZone (utcnow (), UTC,中央标准时间),“dd-MM-yy_hh-mm-ss”),“_log”)
这个我们做的配置日志管道,节省管道后,我需要发布和运行我的管道。现在我可以看到在ADLS容器生成的日志文件。
下载文件之后,我们可以看到,根据我们的查询中的所有输出填充。CSV文件。
以这种方式,我们已经配置了日志管道ADF借助复制活动。配置日志管道的主要优势是我们可以定制事件的输出作为. csv文件中的数据将帮助客户检查的执行状态,行读,写和行,等等。
为什么Perficient ?
我们20多年经验各行业的数据给了我们一个深刻的理解当前数据的趋势。雷竞技raybet提现作为获奖,微软金牌认证合作伙伴和为数不多的几个国家解决方案提供商,我们是一个公认的云计算专家多年的经验帮助企业充分利用微软的云。
准备好把你的数据和Azure利用先进的分析吗?联系我们的团队对这个解决方案。
一个非常有用的文章! !
我确实有知识的管道执行文件登录Azure数据工厂,但是我从来没有理解这一点。谢谢你整理所有重要信息系统作为一个整体的了解。
一定会牢记这一点! !
很多恭喜罗希特,这宝石的信息篇! !
期待从你阅读更多类似的文章。
所有最好的!
谢谢你的信息博客罗希特。伟大的工作!
太棒了! !博客日志管道ADF和很好的示范。当然这将会帮助我和其他的任务。感谢罗希特这信息博客! !
很高兴看到你的博客罗希特。它将帮助许多的人,好去罗希特坚持下去。最好的祝愿☺
伟大的
神奇的帐面价值,罗希特。
期待更多这样的博客。
大部分的博客,好工作。所有最好的!
非常有益的…谢谢
神奇的文章! !
谢谢&
所有最好的罗希特!
棒罗希特高兴地看到你的博客。
坚持下去,最好的祝福送给你
好的文章罗希特!坚持下去!愿你每一个成功的高度!
很好地完成好工作…肯定它将帮助我很多在我的即将到来的项目…坚持下去! !所有最好的!
好文章!足够的虽然我不是很了解Azure我发现真正有用的信息。
很好的和翔实的文章! !感谢和最好的! ! !
好和翔实的
写好. .好…坚持下去
好工作罗希特…。做得好和有用的文章。愿一切都好!
很好写。期待更多这样的好工作。干得好罗希特。
伟大的文章,用例子和截图! !
我们可以记录存储到一个数据库而不是excel ?
不错的博客,它对我们很有帮助。