可以使用机器学习,使用很方便(相当于别人早已经把具体过程做好了,像公式、模板一样自己代入数据就可以得到结果) from sklearn.linear_model import LogisticRegression
学习决策树、向量机、神经网络等相关知识,使用数据挖掘技术收集数据集,反复训练模型评估模型调参,直到实际输出与目标输出误差降低到预设值,并计算正波动概率,用概率论与微积分相关知识作出假设并求可信度,假设收益>0被接受时可认为该模型在一定时间段内可盈利。此外,还可结合深度强化学习对模型进行实时优化,以保持长期可用
一般在建立完模型之后,要预测模型的好坏,为了试验的可靠性(排除一次测试的偶然性)要进行多次测试验证,这时就要用交叉验证。
sklearn中的sklearn.cross_validation.cross_val_score函数已经做好了。
直接调用就可以了。
无论是做回归还是做分类,都可以用这个函数。
具体用法:
from sklearn.cross_validation import cross_val_score
metric = cross_val_score(clf,X,y,cv=5,scoring=‘ ‘).mean()
clf是分类器
其中scoring可以是:
[‘accuracy‘,
‘adjusted_rand_score‘, ‘average_precision‘, ‘f1‘, ‘f1_macro‘,
‘f1_micro‘, ‘f1_samples‘, ‘f1_weighted‘, ‘log_loss‘,
‘mean_absolute_error‘, ‘mean_squared_error‘, ‘median_absolute_error‘,
‘precision‘, ‘precision_macro‘, ‘precision_micro‘, ‘precision_samples‘,
‘precision_weighted‘, ‘r2‘, ‘recall‘, ‘recall_macro‘, ‘recall_micro‘,
‘recall_samples‘, ‘recall_weighted‘, ‘roc_auc‘]
有两种不同的方式:
使用sklearn.preprocessing.scale()函数,可以直接将给定数据进行标准化。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
>>> from sklearn import preprocessing
>>> import numpy as np
>>> X = np.array([[ 1., -1., 2.],
... [ 2., 0., 0.],
... [ 0., 1., -1.]])
>>> X_scaled = preprocessing.scale(X)
>>> X_scaled
array([[ 0. ..., -1.22..., 1.33...],
[ 1.22..., 0. ..., -0.26...],
[-1.22..., 1.22..., -1.06...]])
>>>#处理后数据的均值和方差
>>> X_scaled.mean(axis=0)
array([ 0., 0., 0.])
>>> X_scaled.std(axis=0)
array([ 1., 1., 1.])
使用sklearn.preprocessing.StandardScaler类,使用该类的好处在于可以保存训练集中的参数(均值、方差)直接使用其对象转换测试集数据。
上海莱士作为血液制品的供应商,作为行业的领头羊,公司的业绩方面都不错,不过股票的走势不是特别好,观望为宜,个人看法
上一篇:2022医药股龙头有哪些
下一篇:中核太白为什么停盘?