Azure Data FactoryのデータフローでJSONを読み込んでテーブルにインポートする(Single document)

Azure Data FactoryのデータフローでJSONを読み込んでテーブルにインポートする(Single document)

前提

データフロー作成

「データフロー」にカーソルを合わせて右クリックし「新しいデータフロー」をクリックします。

「ソースの追加」にカーソルを合わせてクリックします。

「ソースの種類」を「インライン」にして「インラインデータセットの種類」を「JSON」に設定します。

「リンクサービス」をあらかじめ作成しているAzure BLOB ストレージにします。

「ソースのオプション」タブをクリックし、ファイルパスを「参照」から入力します。

「ドキュメントのフォーム」は今回のemp.jsonファイル形式に合わせて「Single document」にします。

 

emp.json

{
    "emp": [
        {
            "id": "1",
            "name": "takahashi",
            "age": "20"
        },
        {
            "id": "2",
            "name": "yamada",
            "age": "30"
        },
        {
            "id": "3",
            "name": "wada",
            "age": "40"
        }
    ]
}

「プロジェクション」タブをクリック、「スキーマのインポート」をクリックします。

「インポート」をクリックします。

empをarrayにします。

「データフロー」のソース右下にある「+」をクリック、「フラット化」を選択します。

「フラット化の設定」タブで以下設定にします。

項目
アンロール方法 emp[]
アンロールルート emp

「データフロー」のソース右下にある「+」をクリック、「シンク」を選択して保存します。

シンクの設定をします。

着信ストリーム:flatten1
データセット:AzureSqlTable3

AzureSqlTable3のDDL(dbo.empテーブル)です。

CREATE TABLE [dbo].[emp](
    [id] [int] NOT NULL,
    [name] [nvarchar](50) NOT NULL,
    日付未入力 [int] NOT NULL,
    CONSTRAINT PK_Student PRIMARY KEY ([id])
) ON [PRIMARY];

これでデータフロー作成完了です。

パイプライン作成

作成した「データフロー」をパイプラインにD&Dします。

デバッグ

「検証」でエラーが出なければ「デバッグ」を押して確認します。

dbo.empテーブルを確認します。

3件レコードが追加されていることが確認できます。

コメント

株式会社CONFRAGE ITソリューション事業部をもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む

タイトルとURLをコピーしました