アクチュアリーはデータサイエンスの夢を見るか?

Rで保険数理と機械学習をやっています

Twitter上のtweetデータを自動収集してみる

Twitter上でtweetデータを簡単に収集する方法をご紹介します。APIを使用せずともtweetデータを収集することができます。
This article is a tutorial for how to collect Tweet data by Google sheet application, Twitter Archiver.


1. まずグーグルスプレッドシートで空のシートを開きます。

f:id:r_std:20190318032350p:plain
空のグーグルスプレッドシート

2. Ad-onsを開きます

f:id:r_std:20190318032439p:plain
Ad-onsを開きます

3. "Twitter Archiver"で検索をかけます。

f:id:r_std:20190318032532p:plain
検索結果

4. ダウンロードして、twitterアカウントと連携させます。

f:id:r_std:20190318032609p:plain
twitterアカウントとの連携

5. 検索条件を設定します。

f:id:r_std:20190318032706p:plain
検索条件の設定

1時間おきに100件のツイートを収集することができます。
例えば、「アクチュアリー」で検索すると、次のようなデータを得ることができます。

f:id:r_std:20190318033650p:plain
データ取得結果

直近のツイート数を集計してみると、次の通りになります。

f:id:r_std:20190318033003p:plain
アクチュアリー」を含むツイート数
合格発表時(2019/02/14)のツイート量が多いことが確認できます。

アクチュアリー試験の合格年数シミュレーター

アクチュアリー試験合格までに何年かかるかをシミュレーションするプログラムを作成しました。※実際の合格年数を保証するものではありませんので、ご承知おきください。

計算前提

1. 毎年2科目を受験する。(残り科目数が1科目の場合は1科目)
2. それぞれの科目の合格率は次のとおり。
受験者全体の合格率に、勉強の成果(追加上昇効果)を指定%上乗せして算出。

 第1科目の合格率 = 受験者全体の合格率 + 第1科目の追加上昇効果
 第2科目の合格率 = 受験者全体の合格率 + 第2科目の追加上昇効果
 ※なお、残り科目数が1科目の場合は次の通り。
 第1科目の合格率 = 受験者全体の合格率 + 第1科目の追加上昇効果 + 第2科目の追加上昇効果

3. 受験者全体の合格率は、年ごと・科目ごとに一様乱数で設定される。
4. 1回のシミュレーションにつき、1万通りのシナリオを発生させる。各シナリオとも正会員になるまで受験し続け、リタイアは考慮しない。

入力パラメータ

1.現在の合格科目数

 一次試験、二次試験の通算で科目

2.受験者全体の合格率

 一次試験科目の合格率:
 二次試験科目の合格率:

3.勉強の成果としての合格率の追加上昇効果

 一次試験科目の上乗せ幅
  第1科目:% 第2科目:
 二次試験科目の上乗せ幅
  第1科目:% 第2科目:

計算実行ボタン


実行結果

準会員になるまでの年数
最頻値中央値平均値5%点95%点標準偏差
正会員になるまでの年数
最頻値中央値平均値5%点95%点標準偏差


結果をシェアする

計算結果の考察

  1. 人並みの勉強しかしない場合(追加上昇効果を期待しない場合)、試験合格までには平均で20数年程度の月日がかかる。
  2. 毎年複数科目を真剣に勉強しない場合、短期間での合格は難しい。合格年数のばらつきも大きい。

以前の記事も参照ください。
r-std.hatenablog.com
r-std.hatenablog.com


当記事を作成するのに使用している技術

シミュレーションにはjavascriptを使用しています。javascriptには統計処理を助けてくれるライブラリなどがあり、今回使用したものをご紹介いたします。

1. Simple Statistics.js Simple Statistics
最頻値や中央値などの統計量を求めるのに利用しています。javascript自体にも一様乱数生成機能などがついていますが、当該ライブラリでは各種分布の乱数の生成などもできるようです。

2. plotly.js plotly.js | JavaScript Graphing Library
histogramの作成に使用しています。RやPythonからでも利用できるようで、Visualizationが簡単にできます。
3D系のグラフ描画も可能なため、使い勝手が非常に良さそうです。

3.Twitterへの連携
cthuwebdice.session.jp



機械学習でサザエさんと本気でじゃんけんしてみた②

前回の記事からの続編です。機械学習の手法を用いてサザエさんのじゃんけんの手を予測します。
r-std.hatenablog.com
2017年はいくつかの機械学習の手法を適用して終了してしまいましたが、2018年は予測手法をさらに高度化してみたいと思います。

1.予測をさらに精緻化してみる

1-1.変数の追加

前回から次の2つのデータの追加を行います。
サザエさんが4回前に出した手
・直近で出たタイミングが最も古い手
直近で出たタイミングが最も古い手については、サザエさんじゃんけん研究所の公式サイトでも「最大間隔法」として利用されており、有効性が確認されている情報と言えます。

今回使うデータは下記の通りです。
X:サザエさんの出した手
X1:サザエさんが1回前に出した手
X2:サザエさんが2回前に出した手
X3:サザエさんが3回前に出した手
X4:サザエさんが4回前に出した手
Q:四半期初の場合は1、2、3、4、それ以外は0
Grate:グーチョキパーが四半期内で均等に出る前提でのグーの出やすさ
Crate:グーチョキパーが四半期内で均等に出る前提でのチョキの出やすさ
Prate:グーチョキパーが四半期内で均等に出る前提でのパーの出やすさ
last:直近で出たタイミングが最も古い手

使用したデータは下記リンク先の通りです。
github.com

 

1-2.勝ち負けの重みづけ

例えば、グーチョキパーが下記のような確率で出されると予測される場合、どの手を出すのが最も合理的でしょう?
f:id:r_std:20181226030146p:plain
勝つ確率を最大限高めるのであれば40%出ると予想されるグーに対応してパーを出すのが正着ですが、この場合チョキを出されて負ける確率も39%という高い確率になってしまいます。負けの確率も考慮すると、チョキに勝つ確率(39%)パーに負ける確率(21%)のバランスがとれたグーを出す戦略が最適と考えられます。

従来の予測では勝つ確率のみに注目しており、負ける確率については無視していました。今回はPenalty Matrixを使用することで、負ける確率も考慮した予測を試みます。
使用するPenalty Matrixは次の通りです。行は実現値、列は予想値に対応します。例えば行がC、列がGの場合(予想ではグーだと思っていてパーを出したところ、実際にはチョキが出て負けるケース)は2の値をとることになり、予想が外れて負けたときにはペナルティが倍になるようにパラメータ設定をします。

  C G P
C 0 2 1
G 1 0 2
P 2 1 0

2.重要度の高い特徴量を明らかにする

2-1.決定木を使ってみる

結果の解釈が分かりやすい決定木モデルを使って予測を試みます。パラメータをざっくり調整すると、次のように分類できることができました。
f:id:r_std:20181226043231p:plain
直近で出たタイミングが最も古い手の情報と四半期初回フラグの2つで分類していることがわかります。

最も出ていない手がチョキの場合はチョキを、最も出ていない手がグーの場合は、四半期初回であればチョキを、そうでなければグーを予想します。最も出ていない手がパー場合はパーを予想します。

なお、決定木を用いて2018年の手を予想した結果は次の通りです。(行は実現値、列は予想値に対応します。)

  C G P
C 11 1 6
G 4 9 4
P 4 0 10

49戦30勝9敗10引分け

2-2.ランダムフォレストを使ってみる

RのrandomForestパッケージでは、重要度の高い特徴量を特定するのに下記の2手法を使うことが可能です。

MeanDecreaseAccuracy
MeanDecreaseGini

前者はある特徴量をランダムにシャッフルした際の評価、後者はエントロピー(不純度)による評価が基準となっています。

こちらのサイトによるとMeanDecreaseGiniは、カテゴリーデータと連続データが混ざった場合にバイアスが生じてしまうようです。また、変数間で相関関係がある場合、MeanDecreaseGiniもMeanDecreaseAccuracyも重要度を正しく評価できない欠点があるようです。

2018年のデータに対して、それぞれを算出すると次の通りとなりました。
f:id:r_std:20181226050222p:plain
f:id:r_std:20181226063714p:plain
2手法のそれぞれで重要度が高いとされる特徴量が異なる点が気になりますが、MeanDecreaseAccuracyでは決定木と同じように、直近で出たタイミングが最も古い手の情報と四半期初回フラグの2つが重要であることが示されています。

また、決定木と同様にPenalty Matrixを使用したところ、下記の結果を得られることができました。(行は実現値、列は予想値に対応します。)

  C G P
C 11 2 5
G 2 10 5
P 3 0 11

49戦32勝10敗7引分け

3.2018年の結論

  1. サザエさんのじゃんけんで次の週の手を予測するには、①四半期初回フラグと②直近で出たタイミングが最も古い手の情報の2つが重要である
  2. 勝ち負けの重みづけ評価をしたrandomForestモデルでは、勝率65.3%を達成した
  3. randomForestの特徴量の重要度と決定境界の評価については、さらなる分析が必要

4.2018年の分析の感想

予測を精緻化させるのには多くの手作業が必要になりました。四半期初回フラグや直近で出たタイミングが最も古い手などの一部の情報については、人間が手作業でフラグを追加しない限り、機械学習で変数として認識することは難しいように思われます。
囲碁のような完全情報ゲームでは試行錯誤を通じてAIを成長させることが可能と思われますが、サザエさんのじゃんけんのようなさまざまな特殊要素が絡む不完全情報ゲームでは、仮説を立てて検証する人間の力がどうしても必要になると考えます。
予測結果の説明可能性についても、特徴量の重要度や決定境界を論理的に裏付けるのは非常に困難であると感じました。今回は用いませんでしたが、DeepLearningなどより複雑な手法を選択する場合には、さらに説明困難になると思われます。

使用したソースコードは次の通りです。

sze2018.R

機械学習とアクチュアリー数理の違い(バイアス、バリアンス分解との比較)

今回は機械学習アクチュアリー数理の違いについて、数式を用いて解釈してみます。

1.機械学習の汎化誤差

まずは機械学習で扱われる汎化誤差(Test error)について数式を見てみます。汎化誤差とは訓練誤差(Training error)に対する概念で、「観測されていない新たなデータを予測した時に生じる誤差」のことを指します。

以下の数式はScott Fortmann-Roeのessayからの引用です。
scott.fortmann-roe.com

{\displaystyle
Y = f(X) + \epsilon\\\
Err(x) = E\left\langle(Y-\hat{f}(x))^2\right\rangle\\\
Err(x) = E\left\langle(f(x) -\hat{f}(x)+ \epsilon)^2\right\rangle\\\
Err(x) = \left(f(x)-E\langle\hat{f}(x)\rangle\right)^2 + E\left\langle\left(\hat{f}(x)-E\langle\hat{f}(x)\rangle\right)^2\right\rangle +\sigma_e^2\\\
Err(x) = \mathrm{Bias}^2 + \mathrm{Variance} + \mathrm{Irreducible\ Error}
}
確率変数YはY=f(X)+ϵによってモデル化され、f(x)は理論値、ϵはノイズを意味しています。一方でf^(x)は予測値を意味しており、Yとf^(x)の推定二乗誤差であるErr(x) を分解するのが上式の狙いです。
ポイントとなるのは、予測値f^(x)が定数ではなく、観測データに基づく確率変数として表現されることです。予測値f^(x)のバラつきは最後の式の第2項となります。
上記の通り、汎化誤差=①バイアス+②バリアンス+③ノイズの3要素に分解することができました。

2.アクチュアリー数理の推定二乗誤差

一方でアクチュアリー数理でのリスク評価はどのように行われるでしょうか?以下の数式をマーフィーの論文から引用します。
https://www.casact.org/pubs/forum/07sforum/07s-murphy.pdf

{\displaystyle
mse\left( \widehat {C}\right)=  E \left( C-\widehat {C}\right) ^{2}\\\
=Var\left( C\right) + E_{\widehat {C}}\left( \widehat {C}- \mu _{C} \right) ^{2}\\\
=Var\left( C\right) +Var\left( \widehat {C}\right) + \left( \mu _{C}-\mu _{\widehat {C}}\right) ^{2}\\\
=Var\left( C\right) +Var\left( \widehat {C}\right) + \mathrm{Bias}^2
}

Cは将来の支払保険金、C^はその予測値になります。CとC^の推定二乗誤差であるmse(C^) を分解するのが上式の狙いです。なお、{\displaystyle \mu _{C}}および{\displaystyle \mu _{\widehat {C}}}はそれぞれCとC^の母平均です。
最後の式の各項をそれぞれ日本語に読み替えると、リスク=(1)プロセスリスク+(2)パラメータリスク+(3)バイアス(モデルリスク)と分解することができます。
プロセスリスクは確率変数Cが元々もっている不確実性、パラメータリスクは観測値の偏りにより、パラメータを読み誤る不確実性を表現しています。
マーフィーの論文では将来支払う保険金の変動リスクについて、プロセスリスク、パラメータリスク(あるいはバイアスを含んだエスティメーションエラー)に分けた評価を行っています。

3.両者の数式の比較

ここで上記の2つの数式を見比べてみると、両者は本質的には同じことを表していて、3つの項がそれぞれ対応していることが分かります。
バイアス=モデルリス{\displaystyle =\mathrm{Bias}^2}
バリアンス=パラメータリスク{\displaystyle =Var\left( \widehat {C}\right)=E\left\langle\left(\hat{f}(x)-E\langle\hat{f}(x)\rangle\right)^2\right\rangle}
ノイズ=プロセスリスク{\displaystyle =Var\left( C\right)=\sigma_e^2}

機械学習領域では、ノイズの発生はまぬかれえないもの、モデルによらずコンスタントに予測を乱すものとしてざっくり切り捨てられることが多い一方、バイアス、バリアンスについてはモデルを調整して最小化を図ることが可能なため、これらをどう取り扱うかが肝要となっています。バイアス、バリアンスについては下記イメージの通りです。f:id:r_std:20181217050822p:plain
特に、バイアスとバリアンスにはトレードオフが存在する(下記イメージご参考)ために、モデルをどのように設定して予測性能の高めるかが命題となっています。(モデルを複雑にしすぎると観測値に依存しやすくなる一方、単純なモデルは観測値に依存しにくいものの精緻な結果は得にくいというジレンマがあります。)

f:id:r_std:20181217070146p:plain
X軸はモデルの複雑さ、Y軸は汎化誤差を表します。水色のバイアスと赤色のバリアンスのバランスのとれたモデルを目指すことが機械学習の命題です。
f:id:r_std:20181229073001p:plain
左の図はモデルがシンプルすぎる(バイアスが大きい)一方、右の図はモデルが複雑すぎてデータへの依存度が高い(バリアンスが大きい)状態

アクチュアリー数理では、機械学習とは異なりノイズについても注目します。将来に支払いが予測される保険金の変動や株式などの価格変動リスクなどを評価するために、ノイズ(プロセスリスク)を分析することが一つの大きな命題になっています。また、バイアスは観測することのできないモデルリスクとして、バリアンスはパラメータの読み誤りリスクであるパラメータリスクとして認識しています。

機械学習で注目されるバイアス、バリアンスのトレードオフについても、アクチュアリー数理では共通した課題認識をもっていると言えます。例えば、リスクモデルの複雑さをどの程度にするかが同じようなトレードオフとしてあげられます。各会社でリスクモデルを複雑・精緻にする場合、個社の保有リスク実態に適したリスク評価が可能になるというメリットがある一方で、モデルの頑健性や各社間の結果の比較可能性は落ちてしまうというデメリットがあります。

機械学習アクチュアリー数理で用いられている手法はそれぞれ異なりますが、両者が優れている点を共有することでより精緻なモデルを開発したり、モデルの妥当性を高めることにつながるのではないでしょうか。

アクチュアリーが学ぶべき英語・英単語

今回は、アクチュアリーが英語を使うときに役立つかもしれないリンク集をまとめてみます。
f:id:r_std:20190120060713p:plain

Wikipediaの略語集

保険業界に限定されるものではないですが、ビジネス・金融関係の略語が充実しています。
List of business and finance abbreviations - Wikipedia

ABIのglossary

保険業界団体ABIのまとめている用語集です。
https://www.abi.org.uk/data-and-resources/tools-and-resources/glossary/

IRMIのglossary

International Risk Management Instituteの用語集です。
収録されている用語は多く、Googleなどで検索するとよくでてきますが、内容は難しいです。
Glossary | IRMI.com

NIBAのglossary

ブローカー団体の用語集です。用語の量はやや少なく、一般的なものが多いです。
Insurance Glossary | NIBA - National Insurance Brokers Association

Munich Reのglossary

専門的な再保険用語について解説があります。かなり細かい用語までカバーされています。
https://www.munichre.com/ca/non-life/business-and-solutions/knowledge-and-tools/reinsurance-glossary/index.html

トーア再保険再保険用語集

Munich Reの用語集と同じく再保険の用語集ですが、こちらは日本語対日本語で詳しく解説されています。
トーア再保険株式会社:用語集

IFRS17号に関するKPMGの用語集

KPMGの用語集です。IFRS17号に登場する主要な用語が解説されています。
https://home.kpmg.com/xx/en/home/insights/2018/02/ifrs17-transition-trg-newsletter-insurance-glossary.html

Investopedia

資産運用領域の専門的な単語について詳しく解説されています。
Investopedia - Sharper Insight. Smarter Investing.

英単語の内容を確認する際はできるだけ複数のソースを参照することが肝要と思われます。

Rで異常値検出してみた(MT法、One Class SVM)(スイス銀行紙幣③)

今回は初心に帰ってスイス銀行紙幣を取り扱います。使用するデータは以前の記事と同じものです。
r-std.hatenablog.com
f:id:r_std:20160503082222p:plain

真札と偽札が含まれるスイス銀行紙幣のデータについて、線形判別分析、二次判別分析を行って識別したところ、高い精度で識別を行うことができました。以前の記事では誤識別されたデータ(下記散布図のピンク色の点)について、「真札中の異常値である」と評価をしていました。
f:id:r_std:20160504100515p:plain
本記事では当該データが本当に異常値であるかを検証します。真札のデータのみが得られている状況から異常値の特定を行い、当該データが異常値として検出されることを確認します。今回は2つの方法を用いて検証します。

1.MT(マハラノビス・タグチ)法

名前のとおりマハラノビス距離を用いて群団の重心から遠いデータを異常値として判定する方法になります。手法の詳細については下記リンクが分かりやすいです。
http://heartland.geocities.jp/ecodata222/ed/edj1-2-2-4.html

スイス銀行紙幣の真札データに適用したところ次の散布図の青点のとおり異常値を検出しました。(異常値のマハラノビス距離は3以上と設定しています。)f:id:r_std:20180708131227p:plain
前述の誤識別された点(既出の図ではピンクの点)が、MT法では異常値として検出されていることが確認できます。(diagonalが最小の点、つまり散布図の一番下の列でx軸に張り付いている青点が誤識別された点になります。)

2.One Class SVM

SVM教師なし学習として用いる方法です。カネール関数を利用してデータを高次元空間に写像し、原点からの距離を最大化するように識別境界を設定します。通常のSVMでは2群のデータの間に識別境界を描こうとしますが、One Class SVMでは原点とデータとの間に識別境界を描こうとする特徴があります。手法の詳細については下記リンクが分かりやすいです。
datachemeng.com
スイス銀行紙幣の真札データに適用したところ次の散布図の緑点のとおり異常値を検出しました。(sigma=0.01,mu=0.001)
f:id:r_std:20180708161409p:plain
こちらも前述の誤識別された点(散布図の一番下の列でx軸に張り付いている緑点)が、異常値として検出されていることが確認できます。

3.MT法とOne Class SVM法の違い

スイス銀行紙幣では両者の違いがいまひとつよくわからなかったので、次のような仮想のデータを作成してみました。平均100程度の2変量正規乱数を大量に用意し、ノイズデータとして平均150程度の2変量正規乱数を少量とY=250-Xとなるような関係を持つデータを追加してみました。
f:id:r_std:20180708173631p:plain
MT法の結果は次の通りです。愚直にデータの重心からの距離を用いて評価していることが伺えます。
f:id:r_std:20181229080515p:plain
マハラノビス距離の分布は次の通りです。追加したノイズデータについてマハラノビス距離が大きいことが観察できます。
f:id:r_std:20180708172348p:plain

一方でOne Class SVMの結果は次の通りです。
f:id:r_std:20180709013032p:plain
各データの類似性を捉えて異常値を評価できていることが観察されます。識別境界を引いてみたところ次のようになりました。
f:id:r_std:20180709012958p:plain

もうひとパターンデータを用意してみます。
f:id:r_std:20180709232346p:plain

MT法の場合
f:id:r_std:20180709232500p:plain

One Class SVM法の場合
f:id:r_std:20180709232540p:plain

4.両者の使い分けの注意点

  1. データが一定の分布に従っている場合にはMT法が有効と思われます。
  2. 一方で、複数のデータが混じっていたり、データの散らばりが大きい場合はOne Class SVMの方が有効と思われます。

今回使用したソースコードは次の通りです。

Outliers

Outliers2

アクチュアリー試験の勉強法(一次試験)

本記事ではアクチュアリー試験(一次試験)の勉強法をまとめます。アクチュアリー試験を初受験の方、勉強科目を迷っている方向けに、受験科目の選び方、勉強の進め方や参考書の情報などをまとめます。個人の主観が含まれますのでお含みおきください。

1.受験する科目の選び方、順番

一次試験の科目数は5科目あり、どの順番で受験するが非常に重要になります。
f:id:r_std:20180505151051j:plain
初受験者の方はまず、数学の合格を目指すべきです。難易度を考えると会計・経済・投資理論が最も勉強しやすい科目ですが、数学を突破できないと生保数理、年金数理、損保数理に手をつけられなくなります。数学が専攻でなかった方、文系の方は特に、数学の攻略を最優先事項とすべきです。

数学に合格した後は生保数理または損保数理に手を付けるべきです。年金数理は難易度が高く、生保数理の知識も問われやすいため、生保数理を学習してから取り組むべきです。

損保数理では、一部生保数理に関連した知識を使う問題(積立保険の年金現価の計算など)がありますが、難易度はそこまで高くないので必ずしも事前に生保数理を完璧にしておく必要はありません。

(生保数理・年金数理)(数学・損保数理)の組み合わせについては、内容の親和性が非常に高いので、同時に受験するあるいは期間を空けずに受験する戦略が適切です。会計・経済・投資理論は他の科目との関連性が低いため、どのタイミングで受験してもかまいません。

2.各科目の勉強方法

(1)数学

数学の勉強法としては、「弱点克服大学生の確率・統計」とモデリングの教科書(アクチュアリー会で販売されている水色の本)を一通り勉強した後、過去問演習にあたるのがおすすめです。

弱点克服大学生の確率・統計

弱点克服大学生の確率・統計

教科書としては指定の教科書ではなく「統計学入門」を使いました。分布の性質や検定のやり方を調べる際に辞典のように利用しました。
統計学入門 (基礎統計学?)

統計学入門 (基礎統計学?)

確率論については、代表的な分布の確率密度関数、分布関数、期待値、分散、積率母関数を自力で算出できることが必須です。

統計論については、基本的な検定や区間推定、検出力などを押さえれば合格点の水準に達することが可能です。検定で使う統計量は直前の暗記が重要となるので、自分なりに整理しておくことが肝要です。

モデリングについては出題量は少ないものの、点差が付きやすい部分のためアクチュアリー会の水色の教科書や過去問を一周しておくことが必要です。

(2)生保数理

生保数理は指定教科書と過去問を中心に勉強しました。生保数理の記号にいち早く慣れることが勉強の鍵となります。

教科書は上巻と下巻がありますが、上巻の第1章、2章、4章、5章を集中的に勉強し、純保険料と責任準備金の算出を理解することが重要です。第3章は下巻の第13章の就業不能の問題と関連性が高いので、後回しにしてもかまいません。

上巻の基本的な公式を覚えた後は、下巻の連合生命や多重脱退、チルメル式責準等の問題に手を付けていきやすくなります。下巻は点差の付きやすいポイントが多くあるので過去問と合わせてムラなく対策しておくことが重要です。

受験直前期には下記のサイトの予想問題も参考にしました。実践的で役に立つ問題が取り上げられているため、非常に参考になります。
ハピスマ大学 - お金の基本・運用・活用を学ぼう | アクサダイレクト生命保険

(3)年金数理

年金数理の勉強方法は生保数理に近いものになります。指定教科書と過去問を中心に勉強を進めました。

まずは基本的なトロ―ブリッジの公式を暗記することが最も重要です。各種公式を暗記する際は、各記号の意味を図示しながら理解すべきです。教科書の数式と図を何も見ない状態から書き出せるようにしておくと、試験本番でも迷いなく手を動かすことができます。

公式の理解が十分になってからは、過去問演習を通じて典型的な問題や応用的な問題に取り組みました。網羅的な問題演習を行うのにアクチュアリー受験研究会で提供されているWB「例題で学ぶ年金数理」は非常に役立ちました。

また、受験直前には年金数理人試験の問題も参考にしました。解答には解説がついていませんが、演習パターンを増やしたい方にはおすすめです。
過去の出題例|能力判定試験について|年金数理人を目指す方へ|JSCPA

(4)損保数理

損保数理は範囲が広く、数理的にも難易度が高いため受験時には苦労しました。「例題で学ぶ損害保険数理」で問題の解き方を把握しつつ、内容が理解できない部分については教科書に戻って数式を追い直すようにしました。

ベイズ統計やコピュラ、極値理論などの応用的な数理統計の知識が必要な領域については自分でまとめノートを作成し、公式の暗記だけにならないように注意しました。

またクラス料率や支払備金、積立保険、保険料算出原理など、試験直前の詰め込みがものを言うトピックについては、暗記すべきポイントを網羅的に書き出して直前に見直すようにしました。

受験中は下記の図書を参考にしました。

例題で学ぶ損害保険数理 第2版

例題で学ぶ損害保険数理 第2版

損害保険数理 (アクチュアリー数学シリーズ)

損害保険数理 (アクチュアリー数学シリーズ)

リスク・セオリーの基礎―不確実性に対処するための数理

リスク・セオリーの基礎―不確実性に対処するための数理

(5)会計・経済・投資理論

他の科目と比較すると勉強しやすいものの、暗記量が非常に多いため油断できない科目です。また、3つの分野でそれぞれで設定されている足切り点(各分野の配点に対して40%得点が必要。投資理論は20点、会計、経済はそれぞれ10点)を回避できるように各分野満遍なく勉強する必要があります。

アクチュアリー受験研究会で提供されているWBを繰り返しつつ、指定教科書の「財務会計講義」「新・証券投資論」を参照して理解を深めるようにしました。

新・証券投資論I

新・証券投資論I

新・証券投資論II

新・証券投資論II

財務会計講義(第19版)

財務会計講義(第19版)

3.勉強時間

一次試験を突破するのに必要な勉強時間は一科目あたり200時間とも言われています。1日1時間コンスタントに勉強するとしても、一科目あたり半年くらいの時間がかかる計算です。

いつから勉強を開始するかに正解はありませんが、業務や学業の繁忙度も考慮しつつ無理のないスケジュールを組み立て、出来るだけ前倒しで勉強することが合格の鍵になります。

4.終わりに

一次試験は限られた時間の中で大量の問題を解くことが求められます。試験当日に迷いなく問題が解けるように、早い段階から出題パターンになれておくことが肝要です。

教科書を読む勉強も大事ですが、手を動かして問題を理解していく勉強も高得点を得るには不可欠となります。試験を突破するためには6割の得点が必要なので、基本的な問題を押さえつつ計算ミスをしないよう練習する必要があります。

前記事でも書きましたが、複数の科目を集中的に勉強することが一次試験を早く突破するコツになります。本記事が読者の方の受験科目の選択や勉強方法の模索の一助になれば幸いです。
r-std.hatenablog.com
r-std.hatenablog.com