募集終了
フルリモート
【DWH/Cloud】データエンジニア|医療・福祉業|フルリモートのエンジニア求人・案件
〜130万円/月(税別)
東京都 / フルリモート(在宅) / 東銀座駅
業務委託(フリーランス)
プロジェクト管理 / PM / 指揮型PMO / 支援型PMO / プロジェクトサポート/秘書 / システムエンジニア・プログラマー / バックエンドエンジニア(サーバサイド) / スマホアプリ開発(ネイティブ) / フロントエンドエンジニア / 業務系エンジニア / データサイエンティスト / コンサル・プロジェクト管理 / PM (プロジェクトマネージャー) / PMO / インフラ・ネットワークエンジニア / DBA (データベース)管理者 / HTMLコーダー / IT / CRM/SFA/BI / AI / IoT / マーケティング / デジタルマーケティング / データサイエンティスト/アナリスト
PythonTypeScriptVBSQL
職種
プロジェクト管理 / PM / 指揮型PMO / 支援型PMO / プロジェクトサポート/秘書 / システムエンジニア・プログラマー / バックエンドエンジニア(サーバサイド) / スマホアプリ開発(ネイティブ) / フロントエンドエンジニア / 業務系エンジニア / データサイエンティスト / コンサル・プロジェクト管理 / PM (プロジェクトマネージャー) / PMO / インフラ・ネットワークエンジニア / DBA (データベース)管理者 / HTMLコーダー / IT / CRM/SFA/BI / AI / IoT / マーケティング / デジタルマーケティング / データサイエンティスト/アナリスト
契約形態
業務委託
稼働率
60~100%
リモート
フルリモート
出社頻度
フルリモート
業種
医療・福祉業
契約期間
即日~中長期
業務内容
全社のデータを統合し、社内のデータ利活用を促進するデータ基盤チームのデータエンジニアとして、ログ収集、ETL処理、DWH構築などのデータ基盤構築の責務を担っていただきます。
■募集背景
今夏に薬局向け、医療系ユーザ向に新プロダクトがリリースされ、複数のサービスからデータを取得できるようになりました。今後、それぞれのデータを統合した新規機能開発やカスタマーサクセスにおけるデータ利活用を行うにあたり、全社横断的にデータを統合する必要性が高まってきたためデータエンジニアを募集
■具体的な業務
分析要件に必要なテーブル、ログの定義設計
AWS Glue Job(Spark) を利用したETL処理の設計開発
Airflowを利用したデータパイプラインの開発運用
効率的なデータ活用を推進するための中間テーブル設計
Amazon SageMakerを利用したデータ分析
現状のチーム体制
プロダクトオーナー/データエンジニア
スクラムマスター
■募集背景
今夏に薬局向け、医療系ユーザ向に新プロダクトがリリースされ、複数のサービスからデータを取得できるようになりました。今後、それぞれのデータを統合した新規機能開発やカスタマーサクセスにおけるデータ利活用を行うにあたり、全社横断的にデータを統合する必要性が高まってきたためデータエンジニアを募集
■具体的な業務
分析要件に必要なテーブル、ログの定義設計
AWS Glue Job(Spark) を利用したETL処理の設計開発
Airflowを利用したデータパイプラインの開発運用
効率的なデータ活用を推進するための中間テーブル設計
Amazon SageMakerを利用したデータ分析
現状のチーム体制
プロダクトオーナー/データエンジニア
スクラムマスター
スキル
必須スキル
・データウェアハウス及び、データマート向けのETLを開発した経験
・AWS/GCP/Azureのいずれかを利用した経験
・複数人でチームを組みサービス開発をした経験
・基礎的なプログラミングスキル
・AWS/GCP/Azureのいずれかを利用した経験
・複数人でチームを組みサービス開発をした経験
・基礎的なプログラミングスキル
【言語・スキル】
【経験年数】
Python
TypeScript
VB
SQL
【言語・スキル】
【経験年数】
Python
1年以上3年未満
TypeScript
3年以上
VB
1年以上3年未満
SQL
1年以上3年未満
任意スキル
任意スキル
・Pythonの利用経験
・HadoopやSparkなどを利用し、ログなどを処理する大規模なデータ処理の開発経験
・BigQuery、Amazon Redshift、Snowflake でテラバイト級のデータを多く格納する大規模な分析環境の構築経験
・サービスチームのNSM、KPI策定などの課題をヒアリングし、自身でデータ分析して課題解決した経験
・terraformなどを使ったインフラの自動構築の経験
・HadoopやSparkなどを利用し、ログなどを処理する大規模なデータ処理の開発経験
・BigQuery、Amazon Redshift、Snowflake でテラバイト級のデータを多く格納する大規模な分析環境の構築経験
・サービスチームのNSM、KPI策定などの課題をヒアリングし、自身でデータ分析して課題解決した経験
・terraformなどを使ったインフラの自動構築の経験
プロジェクトの詳細
プロジェクト期間
2022年06月01日 ~ 2022年12月31日
勤務時間
10:00~19:00(160時間/月)
ポジション
リーダー / サブリーダー / メンバー
募集人数
3名
募集背景
追加要員
服装
私服可
働き方改革がとても進んでいる企業です。
基本、リモート対応となります。
基本、リモート対応となります。