目次
Cloud Connector は、Procore がデータ、インテリジェンス、分析をお客様と共有する方法です。これは、Power BIやTableauなどのレポートツールに直接共有できます。また、顧客のデータウェアハウス、店舗、レイク、その他のアプリケーションと共有することもできます。お客様は、Cloud Connectorを使用してデータへのプログラムによるアクセスを構築し、真の自動化を実現することもできます。Cloud Connectorは、Delta Shareオープン共有プロトコルに基づいています。
Delta Sharing は、安全なデータ共有のための業界初のオープン プロトコルであり、使用するコンピューティング プラットフォームに関係なく、他の組織とデータを簡単に共有できます。多くのアプリケーションは、Delta Share を使用してデータにアクセスできます。ただし、カスタマー エクスペリエンスをさらに向上させるために、Procore は次のプラットフォーム用のコネクタ、事前構築済みコード、およびガイドを追加し、セットアップ時間と複雑さを軽減して、シームレスですぐに使用できる接続を可能にしました。
その他の通信用コネクタも近日公開予定です。
包括的なドキュメントとコード例は、Procore 管理者がアクセスできる Procore ウェブ アプリケーションで直接 Procore アナリティクス製品で利用できます。これらのリソースは、データ統合を効果的に設定して管理するのに役立つステップバイステップの手順、コードスニペット、およびベストプラクティスを提供します。
このガイドの次のセクションに進み、セットアップ プロセスを開始します。
ご不明な点やご不明な点がございましたら、アカウントマネージャーまたはサポートチームにお問い合わせください。
Procore データを BI ソリューションに接続し始めることができるように、アクセス トークンを生成するための適切な権限が割り当てられていることを確認する必要があります。 Procore アナリティクスへのアクセスは Procore ログイン認証情報にリンクされており、1 つのアクセス トークンを生成できます。アクセストークンは、データにアクセスするためにBIシステムに入力する数字の文字列です。
通常、アクセス トークンを必要とするユーザーは、データ エンジニアまたは Power BI 開発者です。 複数の会社の Procore アナリティクスにアクセスできる場合、トークンを使用すると、すべての会社からデータを取得できます。 トークンは特定の会社ではなく、あなたに紐付けられているため、アクセスできるすべての会社で同じままです。
会社管理者とプロジェクト管理者には、既定で管理者ロールが付与されます。 Procore アナリティクス ツールでは、次のユーザー アクセス レベルが許可されます。
ツールに対するユーザーの権限が削除されると、Procore アナリティクス ツールのデータへのアクセスは取り消されます。さらに、ユーザーの連絡先レコードが非アクティブになると、Procore アナリティクス データにもアクセスできなくなります。
Procore データへのアクセスを開始するには、データ アクセス認証情報を生成するための 2 つのオプションがあります: Databricks 直接接続方法またはデルタ共有トークン方法。アクセス トークンは、データにアクセスするために該当するデータ コネクタに入力する数字の文字列です。


Procore アナリティクス クラウド コネクト アクセス ツールは、Procore から MS SQL Server へのデータ転送の構成と管理に役立つコマンドライン インターフェイス (CLI) です。これは、次の 2 つの主要コンポーネントで構成されています。
これは、次の設定に役立ちます。
構成後、データ同期を実行するには次の 2 つのオプションがあります。
{
"shareCredentialsVersion":1、
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx"
}
次の MS SQL Server の詳細を指定する必要があります。




このガイドでは、Windows オペレーティング システムでデルタ共有統合パッケージを設定して使用し、Procore アナリティクスを使用してワークフローにデータをシームレスに統合するための詳細な手順について説明します。このパッケージは複数の実行オプションをサポートしているため、必要な構成と統合方法を選択できます。
先に進む前に、次のものがあることを確認してください。

{
"shareCredentialsVersion":1、
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx"
}

また、ターミナルコマンドで実行してスケジュールを確認することもできます。
LinuxおよびMacOSの場合:
編集/削除 - 以下を使用してスケジューリングcronを編集します。
'''bash
EDITOR=nano crontab -e
```
Windowsの場合:
即時実行の質問:
一般的な問題と解決策
サポート
さらにヘルプが必要な場合:
注
このガイドでは、Windows オペレーティング システムでデルタ共有統合パッケージを設定して使用し、Procore アナリティクスを使用してワークフローにデータをシームレスに統合するための詳細な手順について説明します。このパッケージは複数の実行オプションをサポートしているため、必要な構成と統合方法を選択できます。
先に進む前に、次のものがあることを確認してください。

{
"shareCredentialsVersion":1、
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx"
}

また、ターミナルコマンドで実行してスケジュールを確認することもできます。
LinuxおよびMacOSの場合:
編集/削除 - 以下を使用してスケジューリングcronを編集します。
'''bash
EDITOR=nano crontab -e
```
Windowsの場合:
即時実行の質問:
一般的な問題と解決策
サポート
さらにヘルプが必要な場合:
注
このガイドでは、Delta Sharing データを Procore Analytics と統合するための Azure 関数の設定とデプロイについて説明します。Azure 関数を使用すると、Delta Sharing プロファイルを使用した効率的なデータ処理と共有ワークフローが可能になります。
行きます
Azure Functions Core Tools のインストール手順については、「」を参照してください。
このガイドでは、Windows オペレーティング システムでデルタ共有統合パッケージを設定して使用し、Procore アナリティクスを使用してワークフローにデータをシームレスに統合するための詳細な手順について説明します。このパッケージは複数の実行オプションをサポートしているため、必要な構成と統合方法を選択できます。
先に進む前に、次のものがあることを確認してください。

{
"shareCredentialsVersion":1、
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx"
}

また、ターミナルコマンドで実行してスケジュールを確認することもできます。
LinuxおよびMacOSの場合:
編集/削除 - 以下を使用してスケジューリングcronを編集します。
'''bash
EDITOR=nano crontab -e
```
Windowsの場合:
即時実行の質問:
一般的な問題と解決策
サポート
さらにヘルプが必要な場合:
注
このガイドでは、Windows オペレーティング システムでデルタ共有統合パッケージを設定して使用し、Procore アナリティクスを使用してワークフローにデータをシームレスに統合するための詳細な手順について説明します。このパッケージは複数の実行オプションをサポートしているため、必要な構成と統合方法を選択できます。
先に進む前に、次のものがあることを確認してください。

{
"shareCredentialsVersion":1、
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx"
}

また、ターミナルコマンドで実行してスケジュールを確認することもできます。
LinuxおよびMacOSの場合:
編集/削除 - 以下を使用してスケジューリングcronを編集します。
'''bash
EDITOR=nano crontab -e
```
Windowsの場合:
即時実行の質問:
一般的な問題と解決策
サポート
さらにヘルプが必要な場合:
注
Delta Sharing を Microsoft Fabric Data Factory と統合すると、Procore Analytics 2.0 を使用した分析ワークフローで共有 Delta テーブルにシームレスにアクセスして処理できるようになります。Delta Sharingは、安全なデータコラボレーションのためのオープンプロトコルであり、組織が重複することなくデータを共有できるようにします。




データフローを設定したら、共有デルタデータに変換を適用できるようになりました。以下のリストから [Delta Sharing Data] オプションを選択します。
データパイプラインとフローをテストして、円滑な実行を確保します。データ内で監視ツールを使用する
各アクティビティの進行状況とログを追跡するファクトリ。
Microsoft Fabric の Data Factory を Delta Sharing と共に使用すると、Procore アナリティクス 2.0 による分析ワークフローの一部として、共有 Delta テーブルのシームレスな統合と処理が可能になります。Delta Sharing は、安全なデータ共有のためのオープン プロトコルであり、データを複製することなく組織間のコラボレーションを可能にします。
このガイドでは、Delta Sharing を使用して Fabric で Data Factory を設定して使用し、ノートブックを使用してデータを処理してレイクハウスにエクスポートする手順について説明します。



3. ds_to_lakehouse.py のコードをコピーしてノートブックウィンドウに貼り付けます(Pyspark Python)。

次のステップは、独自のconfig.yamlとconfig.shareをLakehouseの Resources フォルダーにアップロードすることです。独自のディレクトリを作成するか、組み込み ディレクトリ( Lakehouseによってリソース用にすでに作成されています)を使用できます。


以下の例は、 config.yaml ファイルの標準 の組み込み ディレクトリを示しています。
注: 両方のファイルを同じレベルにアップロードし、 プロパティ config_pathにアップロードしてください。

4. ノートブックのコード、170 行目から 175 行目を確認します。
以下の例は、必要な行の変更を示しています。
config_path = "./env/config.yaml"
宛先
config_path = "./builtin/config.yaml"
ファイルはカスタム環境ではなく組み込みフォルダーにあるため、ファイルの独自の構造を必ず監視してください。別のフォルダーにアップロードすることもできますが、そのような場合は、ノートブックのコードを更新して config.yaml ファイルを正しく見つけてください。

5. [セルの実行]をクリックします。

このガイドでは、Delta Sharing データを Procore Analytics と統合するための Azure 関数の設定とデプロイについて説明します。Azure 関数を使用すると、Delta Sharing プロファイルを使用した効率的なデータ処理と共有ワークフローが可能になります。
行きます
Azure Functions Core Tools のインストール手順については、「」を参照してください。このドキュメントでは、Delta Share から SQL ウェアハウスにデータを転送するために Microsoft Fabric でデータ パイプラインを設定する手順について説明します。この構成により、Delta Lake ソースと SQL 宛先間のシームレスなデータ統合が可能になります。
一般的な問題と解決策:
Microsoft Fabric の Data Factory を Delta Sharing と共に使用すると、Procore アナリティクス 2.0 による分析ワークフローの一部として、共有 Delta テーブルのシームレスな統合と処理が可能になります。Delta Sharing は、安全なデータ共有のためのオープン プロトコルであり、データを複製することなく組織間のコラボレーションを可能にします。
このガイドでは、Delta Sharing を使用して Fabric で Data Factory を設定して使用し、ノートブックを使用してデータを処理してレイクハウスにエクスポートする手順について説明します。



3. ds_to_lakehouse.py のコードをコピーしてノートブックウィンドウに貼り付けます(Pyspark Python)。

次のステップは、独自のconfig.yamlとconfig.shareをLakehouseの Resources フォルダーにアップロードすることです。独自のディレクトリを作成するか、組み込み ディレクトリ( Lakehouseによってリソース用にすでに作成されています)を使用できます。


以下の例は、 config.yaml ファイルの標準 の組み込み ディレクトリを示しています。
注: 両方のファイルを同じレベルにアップロードし、 プロパティ config_pathにアップロードしてください。

4. ノートブックのコード、170 行目から 175 行目を確認します。
以下の例は、必要な行の変更を示しています。
config_path = "./env/config.yaml"
宛先
config_path = "./builtin/config.yaml"
ファイルはカスタム環境ではなく組み込みフォルダーにあるため、ファイルの独自の構造を必ず監視してください。別のフォルダーにアップロードすることもできますが、そのような場合は、ノートブックのコードを更新して config.yaml ファイルを正しく見つけてください。

5. [セルの実行]をクリックします。





ご質問やサポートが必要な場合は、Procore サポートまでご連絡ください。
Procore Analytics Cloud Connect Access ツールは、Procore から Snowflake へのデータ転送の構成と管理に役立つコマンドラインインターフェイス (CLI) です。
これは、次の 2 つの主要コンポーネントで構成されています。
python user_exp.pyを使用して設定ユーティリティを実行します。
構成後、データ同期を実行するには次の 2 つのオプションがあります。
LinuxおよびMacOSの場合:
'''bash
EDITOR=nano crontab -e
```
2 * * * *
/ユーザー/your_user/snowflake/venv/bin/python
/ユーザー/your_user/snowflake/sql_server_python/connection_config.py
2>&1 |行を読み取っている間。do echo "$(日付) - $line";これで完了です>>
/Users/your_user/snowflake/sql_server_python/procore_scheduling.log # procore-data-import
Windowsの場合:
```
PowerShellの
schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v
```
{
"shareCredentialsVersion":1、
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia.cloud.databricks.c...astores/xxxxxx"
}
次のSnowflakeの詳細を提供する必要があります。
このツールには、自動データ同期をスケジュールする機能があります。
解除
├── requirements.txt# 依存関係
├── user_exp.py# 設定ユーティリティ
├── ds_to_snowflake.py# データ同期スクリプト
├── config.yaml# 生成された設定
├── config.share# Delta Share 構成ファイル
├── procore_scheduling.log# スケジューリング実行のログ
手記: 変更を加える前に必ず構成をバックアップし、最初に非運用環境で新しい構成をテストすることを忘れないでください。
Procore アナリティクス クラウド接続アクセスツールは、Procore アナリティクス 2.0 を使用して Procore から Amazon S3 へのデータ転送を設定および管理するのに役立つコマンドライン インターフェイス (CLI) です。
これは、次の 2 つの主要コンポーネントで構成されています。
python user_exp.pyを使用して設定ユーティリティを実行します。
これは、次の設定に役立ちます。
{
"shareCredentialsVersion":1、
"bearerToken": "xxxxxxxxxxxxx",
"エンドポイント": "xxxxxx"
}
次の S3 の詳細を指定する必要があります。
このツールには、自動データ同期をスケジュールする機能があります。
ターミナルコマンドで実行してスケジュールを確認することもできます
LinuxおよびMacOSの場合:
編集/削除 - 以下を使用してスケジューリングcronを編集します。
'''bash
EDITOR=nano crontab -e
```
Windowsの場合:
解除
├── requirements.txt# 依存関係
├── user_exp.py# 設定ユーティリティ
├── delta_share_to_s3.py# データ同期スクリプト
├── config.yaml# 生成された設定
├── config.share# Delta Share 構成ファイル
├── procore_scheduling.log# スケジューリング実行のログ
一般的な問題と解決策:
筆記:
Delta Sharingは、安全なリアルタイムデータ共有のためのオープンプロトコルであり、組織が異なるコンピューティングプラットフォーム間でデータを共有できるようにします。このガイドでは、Delta Sharing を介してデータに接続してデータにアクセスするプロセスについて説明します。
Delta Sharing Python コネクタは、Delta Sharing サーバーからテーブルを読み取るための Delta Sharing Protocol を実装する Python ライブラリです。共有テーブルは、 pandas DataFrame として、または Apache Spark コネクタがインストールされた PySpark で実行されている場合は Apache Spark DataFrame として読み込むことができます。
解除
pip3はデルタ共有をインストールします
コネクターは、 プロファイル ファイル (Delta Sharing サーバーにアクセスするためのユーザーの資格情報を含む JSON ファイル) に基づいて共有テーブルにアクセスします。開始するには、いくつかの方法があります。
プロファイルファイルを保存したら、コネクターでそれを使用して共有テーブルにアクセスできます。
インポートdelta_sharing
Apache Spark コネクタは、Delta Sharing Server から共有テーブルを読み取るための Delta Sharing Protocol を実装します。SQL、Python、Java、Scala、Rで使用できます。
コネクタは、プロファイル ファイルからユーザー資格情報を読み込みます。
Delta Sharing コネクタを読み込むように Apache Spark を設定するには、次の 2 つの
方法:
Databricks Runtime を使用している場合は、このセクションをスキップし、Databricks ライブラリのドキュメントに従ってクラスターにコネクタをインストールできます。
Delta Sharing コネクタを Spark の Scala/Python シェル内で対話的に使用するには、次のようにシェルを起動します。
PySpark シェル
解除
pyspark --packages io.delta:delta-sharing-spark_2.12:3.1.0
Scala シェル
解除
bin/spark-shell --packages (ビン/スパークシェル --パッケージ)
io.delta:デルタ共有-spark_2.12:3.1.0
Maven Central Repository から Delta Sharing コネクタを使用して Java/Scala プロジェクトをビルドする場合は、次の Maven 座標を使用できます。
Delta Sharing コネクタを Maven プロジェクトに含めるには、POM ファイルに依存関係として追加します。Delta Sharing コネクタは Scala 2.12 でコンパイルされています。
<dependency>
<groupId>io.delta</groupId>
<artifactId>delta-sharing-spark_2.12</artifactId>
<version>3.1.0</version>
</dependency>