
GCP BigQueryのデータ基盤エンジニア募集!
公開:8か月前
- 雇用形態
- 業務委託・フリーランス
- 報酬
- 60万円〜60万円 / 人月
- 稼働日数
- 週24時間(3人日)👍
- 働き方
- フルリモート👍
- 勤務地
- -
募集内容
AIが募集内容をまとめました。
AIにより情報をまとめ直したものです。正確な内容は、もとの募集内容をご覧ください
業務内容
GCP上でのデータ基盤構築・運用・分析
- BigQueryを活用したデータウェアハウスの構築・管理
└各種業務システムからのデータを統合し、データ分析基盤を設計
└SQLを用いたデータ抽出・変換・集計処理の最適化
- データパイプラインの設計・実装
└Cloud Functions、Dataflow、Pub/Subを活用したETLの設計
└既存のデータベースやAPIからのデータ取得・変換・保存の自動化
- BIツールとの連携
└Looker Studio、Tableau、Google Data Studio を活用し、データの可視化
└KPIダッシュボードの構築とレポート作成
- 機械学習・予測分析の活用
└AutoML, Vertex AI を利用した販売予測・顧客分析
└ビジネスデータ(売上、在庫、顧客行動)を活用した意思決定支援
- データのガバナンス・セキュリティ対策
└アクセス権管理、データの保持ポリシー策定 └バックアップ戦略、データリカバリ設計
必須要件
BigQueryの運用経験
SQLを用いたデータ抽出・分析
GCP(Google Cloud Platform)の経験 └Cloud Functions、Dataflow、Pub/Sub などの活用
BIツールの利用経験 └Looker Studio, Tableau, Google Data Studio など
データパイプライン構築の知識 └ETLツール、データ統合の設計・実装
💼 業務内容
私たちのチームでは、データの力を活かしたビジネス支援を行っています。具体的には、以下の業務を担当していただきます:
- GCP上でのデータ基盤の構築・運用・分析
- BigQueryを活用したデータウェアハウスの構築・管理
- 各種業務システムからのデータ統合と分析基盤の設計
- SQLを用いたデータ抽出・変換・集計処理の最適化
- データパイプラインの設計・実装
- Cloud Functions、Dataflow、Pub/Subを活用したETLの設計
- BIツールとの連携(Looker Studio、Tableau、Google Data Studio)
- KPIダッシュボードの構築とレポート作成
- 機械学習・予測分析の活用(AutoML, Vertex AI)
- データのガバナンス・セキュリティ対策
あなたのスキルを活かして、ビジネスの意思決定を支える役割を担いませんか?
✅ 応募条件・必須スキル
- BigQueryの運用経験
- SQLを用いたデータ抽出・分析
- GCPの経験(Cloud Functions、Dataflow、Pub/Subなどの活用)
- BIツールの利用経験(Looker Studio, Tableau, Google Data Studioなど)
- データパイプライン構築の知識(ETLツール、データ統合の設計・実装)
📌 募集ポジション
GCP BigQueryのデータ基盤エンジニア
🛠 使用技術・ツール
- GCP(Google Cloud Platform)
- BigQuery
- SQL
- Cloud Functions
- Dataflow
- Pub/Sub
- Looker Studio
- Tableau
- Google Data Studio
- AutoML
- Vertex AI
💬 ひとこと
興味があれば、まずはお話ししましょう!あなたの力が必要です。
担当エージェント
もっと見るDYMテック
DYMテック
