跳转到主要内容

微软

日志在Azure数据工厂管道执行文件

人设计一个网站的可访问性

为什么Azure数据工厂?

现在,我们的客户应用程序生成的数据越来越指数,特别是数据来自几个不同的产品。组织有几种类型的数据位于云和备用,在结构化、非结构化和半结构化的格式都到达不同的时频和速度。这将是一个关键的任务分析和存储这些数据。Azure数据工厂(ADF)是一个基于云的数据集成服务,完全解决此类复杂场景。

ADF第一存储数据的帮助下一个数据存储湖。一旦存储,数据分析,然后借助管道、ADF变换的数据组织出版。一旦公布数据,我们可以可视化数据的帮助下应用电力BI,画面。

为更深入地了解ADF和它的基本功能,请查看我的同事的博客文章。

日志在Azure数据工厂管道执行文件

数据集成解决方案是复杂的,有许多运动部件和主要的一件事我们的客户想要的是确保他们能够监控数据集成工作流或管道。然而,数据工厂监控只有存储数据的管道运行45天非常有限的信息。但随着日志管道处决,我们可以自定义日志数据存储在Azure数据存储(ADLS)湖的帮助下长时间查询。

如何创建CSV数据日志文件在Azure湖店。

出于演示目的,我已经创建了一个复制表的管道活动将数据从一个文件夹复制到另一个容器ADLS。

现在,我们将看到如何复制数据活动将生成自定义登录. csv文件。我们将开始添加复制数据活动copy-tables旁边画布。

复制表

源数据集,我们需要定义查询活动复制数据的来源,我将选择数据集作为on-prem SQL Server通过选择on-prem SQL Server服务有关。

新数据集

创建源数据集后,我将添加一个查询。这个查询将包含一个管道系统变量和其他指标,我可以检索每个任务。

复制数据

下面是目前管道系统变量列表。

.DataFactory @pipeline ()——数据工厂的名称

.Pipeline @pipeline ()- - -管道的名称

.RunId @pipeline ()——管道运行的ID

.TriggerType @pipeline ()——类型的触发器调用管道(手册、计划)

.TriggerName @pipeline ()——调用管道的触发器的名称

.TriggerTime @pipeline ()——当触发器调用管道。

动态内容

查询-

选择“@{管道()。DataFactory_Name DataFactory}’,

“@{管道()。Pipeline_Name管道}’,

“@{活动(copytables) .output.executionDetails [0] .source。Source_Type类型}’,

“@{活动(copytables) .output.executionDetails [0] .sink。Sink_Type类型}’,

“@{活动(copytables) .output.executionDetails [0]。Execution_Status地位}’,

@{活动.output (“copytables”)。rowsRead rowsRead}’,

@{活动.output (“copytables”)。RowsWritten rowsCopied}’

@{活动.output (“copytables”)。CopyDurationInSecs copyDuration}’,

“@{活动(copytables) .output.executionDetails [0]。CopyActivity_Start_Time开始},

“@ {utcnow ()}’CopyActivity_End_Time,

“@{管道()。RunId RunId}’,

“@{管道()。TriggerType TriggerType}’,

“@{管道()。TriggerName TriggerName}’,

“@{管道()。TriggerTime TriggerTime}’

上面的查询将事件的信息写入. csv文件。为此,我们必须定义一个数据集水槽ADLS容器中创建一个目录和CSV日志文件。下面的快照显示了数据集类型的你,我选择了湖存储Azure数据创2 . csv文件格式。

数据湖

我用以下参数化的路径,将确保日志文件生成正确的文件夹结构和适当的文件名。

在文件名-动态内容

@concat (formatDateTime (convertTimeZone (utcnow (), UTC,中央标准时间),“弟弟”),“/”,项目().filename,“_”, formatDateTime (convertTimeZone (utcnow (), UTC,中央标准时间),“dd-MM-yy_hh-mm-ss”),“_log”)

这个我们做的配置日志管道,节省管道后,我需要发布和运行我的管道。现在我可以看到在ADLS容器生成的日志文件。

身份验证方法

下载文件之后,我们可以看到,根据我们的查询中的所有输出填充。CSV文件。

. csv文件输出

以这种方式,我们已经配置了日志管道ADF借助复制活动。配置日志管道的主要优势是我们可以定制事件的输出作为. csv文件中的数据将帮助客户检查的执行状态,行读,写和行,等等。

为什么Perficient ?

我们20多年经验各行业的数据给了我们一个深刻的理解当前数据的趋势。雷竞技raybet提现作为获奖,微软金牌认证合作伙伴和为数不多的几个国家解决方案提供商,我们是一个公认的云计算专家多年的经验帮助企业充分利用微软的云。

准备好把你的数据和Azure利用先进的分析吗?联系我们的团队对这个解决方案。

思想在“日志在Azure管道执行文件数据工厂”

  1. 一个非常有用的文章! !
    我确实有知识的管道执行文件登录Azure数据工厂,但是我从来没有理解这一点。谢谢你整理所有重要信息系统作为一个整体的了解。
    一定会牢记这一点! !
    很多恭喜罗希特,这宝石的信息篇! !
    期待从你阅读更多类似的文章。
    所有最好的!

  2. 苏拉辛格Thakur

    太棒了! !博客日志管道ADF和很好的示范。当然这将会帮助我和其他的任务。感谢罗希特这信息博客! !

  3. Sandhya古普塔

    很高兴看到你的博客罗希特。它将帮助许多的人,好去罗希特坚持下去。最好的祝愿☺

  4. Harpreet考尔

    棒罗希特高兴地看到你的博客。
    坚持下去,最好的祝福送给你

  5. Mohini Dayare

    很好地完成好工作…肯定它将帮助我很多在我的即将到来的项目…坚持下去! !所有最好的!

留下一个回复

你的电子邮件地址将不会被发表。必填字段标记*

这个网站使用Akismet来减少垃圾邮件。学习如何处理你的评论数据

罗希特•Dhande高级技术顾问

罗希特Dhande Perficient高级技术顾问,拥有超过6年的经验在云on-prem解决方案。他动手DevOps, ETL工具,数据仓库、应用程序配置,源代码管理、补丁管理、建筑、自动化、管理和发布的代码在不同环境和部署到服务器。他是ScrumMaster认证®和全球认证在Red Hat和微软Azure。罗希特是一个风趣的,创造性的问题解决者喜欢与团队合作,创造非凡的结果。

从这个作者

跟着我们
推特 Linkedin 脸谱网 Youtube Instagram