Sparkでデータのバリデーションを行うとき、またはKafkaトピックに対して読み込み/書き込みをおこなうとき、一般的にはScalaのcase classやJava Beanを使うことになると思います。 しかし、もしあなたのチームに5人の開発者しかおらず、10000以上のデータ型を処理するプロジェクトを数ヶ月以内に終わらせなくてはならないとしたらどうでしょう? hylomorphismsと宣言的な方法論を組み合わせることで、たとえ100もの異なるデータ元の数十の異なるテーブルからデータのバリデーションと変換を行う必要があっても、 定められた期間と予算内で正しく動作するコードを書くことが出来ます。
票中 票投票済み