さくら VPS 相関係数予測Ⅱ
さくら VPS 相関係数予測Ⅱファイル
マネーパートナーズが6月末、外為どっとコムに吸収され消滅しました。
このため、豪ドル/円の為替データが取得できなくなり、仕方なく、
yfinance を導入して為替データ取得できるようにして再開させようとしました。
その方法については、
yfinance 概要
から見ることができます。
ところが、 yfinance は Windows11 WSL2 Ubuntu 24.04 LTS からは動くのですが
さくら VPS の中からは動かないのです。
原因は私にはよくわかりません。
あきらめました。
仕方がないので、外為どっとコムのアプリから豪ドル/円の為替データを手動で取得することにしました。
実にアナログ的です。
IT 化できていません。
これを予測できるファイル書式に変更して、相関係数予測をすることにしました。
豪ドル/円為替データ取得
自動で為替データ取得を取得するのはなかなかハードルが高いようです。
スキル不足の私がたどり着いたのは結局手動で取得することでした。
今回は、外為どっとコムの外貨ネクストネオリッチアプリから取得します。
費用はかかりません。
口座開設して外貨ネクストネオリッチアプリをインストールすれば終わりです。
まずは、
口座開設(個人のお客様)
へ行き口座開設。
次に
外貨ネクストネオ リッチアプリ版のログイン
に行ってアプリをインストールすれば準備完了です。
豪ドル/円為替データファイル取得
外貨ネクストネオ リッチアプリを起動すると次のような画面が開きますので、
上部の通貨設定から
AUD/JPY 日足 ローソク(BID) 2025/08/15 検索
を選択し
左下にある キーボード マーク
をクリックすると
豪ドル/円為替データの CSV ファイルをダウンロードできます。

アプリ起動時、日付欄は空 / / になっています。
そのまま キーボード マークをクリックすると最新データを取得することができます。
豪ドル/円為替データ書式
ダウンロードしたデータは次のような CSV データになっています。
,,,,,
,始値,高値,安値,終値,
2025/08/15,95.916,96.071,95.619,95.621,
2025/08/14,96.372,96.437,95.518,95.981,
・・・・・・・・
2021/10/15,84.254,84.922,84.243,84.779,
2021/10/14,83.522,84.399,83.428,84.296,
新しい日付のデータが上位に並んでいます。
ラベルに日本語が使われています。
豪ドル/円為替データの蓄積
手動でデータを取得するのは仕方ないとして、それまでにダウンロ-ドしたデータにマージするのは
自動でやらせたいですよね。
ダウンロ-ドした最新 CSV データを gai_audjp.csv
蓄積してきた CSV データを gai_audjp_d.csv
とします。
当然この2つの CSV データには重複があるはずです。
ダウンロードしたデータ の保存先は gai_audjp_d.csv とします。
この時2つの CSV データをマージする Python ファイル gai_audjp.py を作成します。
Windows11 WSL2 Ubuntu Python Ⅱ-- pandas を使う
にその原形がありますのでこれを参考にファイル作成していきます。
蓄積データファイル作成
蓄積データ結合ファイルを作成していきます。
- ライブラリインポート
作法通り始めます。
python3 のインストール場所を示して、文字コードも明らかにしておきます。
pandas も import しておきます。
#!/home/yamada/miniconda3/bin/python3
#coding: utf-8
import pandas as pd - 新データ CSV ファイル読込み
ダウンロ-ドした最新 CSV データ gai_audjp.csv ファイルの2行目のヘッダー情報は日本語で書かかれています。
単に読込むと文字化けしますので、文字コードを cp932 と指定し文字化けしないようにします。
encoding="cp932"
ヘッダーは1行目にあります。
header=1
インデックスラベルは0列になっています。
index_col=0
usecols=range() を使用しインデックスラベルの0列も読込むようにします。
読込む列の番号を範囲で指定します。
(0,5)で0列から4列を読込みます。
usecols=range(0,5)
まとめると
df = pd.read_csv(
'/home/yasuhiro/public_html/manep/gai_audjp.csv', header=1, index_col=0, usecols=range(0,5), encoding="cp932")
となります。 - カラムラベルの変更
カラムラベルが日本語なのでこれを英語にします。
df.columns = ['open', 'high', 'low', 'close'] - 逆順にする
データ新しい日付順になっているのでこれを古い順にします。
昇順(小さい順) ascending=True にします。
df = df.sort_index(ascending=True) - 蓄積データ CSV ファイル読込み
蓄積 CSV データ gai_audjp_d.csv ファイルのインデックスラベルは0列になっています。
インデックス指定します。
index_col = 0
dfd = pd.read_csv(
'/home/yamada /public_html/manep/gai_audjp_d.csv', index_col=0)
- 蓄積データのラスト行削除
日足蓄積データの最後の行のデータは日足が確定する前の未確定のデータなのでこれを削除します。
index[-1] は最後の行を指しています。
dfd = dfd.drop(dfd.index[-1]) - データ結合
データを結合します。
concat([ ]) メソッドを使います。
dfd_1 = pd.concat([dfd, df]) - 重複データ削除
重複データを削除します。
drop_duplicates()メソッドを使います。
dfd_2 = dfd_1.drop_duplicates(subset=['open'], keep='last')
open 列が等しいものは最新化します。
subset=['open']
引数 keep の使い方
'first' → 重複行の最初を残す
'last' → 重複行の最後を残す
False → 重複行をすべて削除 - 結合したデータを CSV ファイルに書込・保存
dfd_2 を CSV ファイル gai_audjp_d.csv にヘッダーもインデックスも含めて出力します。
dfd_2.to_csv('/home/yamada/public_html/manep/gai_audjp_d.csv', header=True, index=True)
ここまでで、豪ドル/円為替蓄積データファイル作成の説明が終了しました。
引き続き、このファイルをまとめます。