BP人工神经网络改进算法C语言
BP网络接受样本的顺序会对训练结果有较大的影响,基本算法比较“偏爱”较后出现的样本,因此,改进算法为对整个样本集的训练,用“总效果”去实施对权矩阵的修改,这就能比较好的解决因样本顺序引起的精度问题和训练的抖动。改进后的算法如下:
#include <stdlib.h>
#include <math.h>
#include <stdio.h>
#include <time.h>
#define OUT_COUT 2 //输出向量维数
#define IN_COUT 3 //输入向量维数
#define COUT 6 //样本数量
typedef struct { //bp人工神经网络结构
int h; //实际使用隐层数量
double v[IN_COUT][50]; //隐藏层权矩阵i,隐层节点最大数量为100
double w[50][OUT_COUT]; //输出层权矩阵
double a; //学习率
double b; //精度控制参数
int LoopCout; //最大循环次数
} bp_nn;
double fnet(double net) { //Sigmoid函数,神经网络激活函数
return 1/(1+exp(-net));
}
int InitBp(bp_nn *bp) { //初始化bp网络
printf("请输入隐层节点数,最大数为100:\n");
scanf("%d", &(*bp).h);
printf("请输入学习率:\n");
scanf("%lf", &(*bp).a); //(*bp).a为double型数据,所以必须是lf
printf("请输入精度控制参数:\n");
scanf("%lf", &(*bp).b);
printf("请输入最大循环次数:\n");
scanf("%d", &(*bp).LoopCout);
int i, j;
srand((unsigned)time(NULL));
for (i = 0; i < IN_COUT; i++)
for (j = 0; j < (*bp).h; j++)
(*bp).v[i][j] = rand() / (double)(RAND_MAX);
for (i = 0; i < (*bp).h; i++)
for (j = 0; j < OUT_COUT; j++)
(*bp).w[i][j] = rand() / (double)(RAND_MAX);
return 1;
}
int TrainBp(bp_nn *bp, float x[COUT][IN_COUT], int y[COUT][OUT_COUT]) {
//训练bp网络,样本为x,理想输出为y
double f = (*bp).b; //精度控制参数
double a = (*bp).a; //学习率
int h = (*bp).h; //隐层节点数
double v[IN_COUT][50], w[50][OUT_COUT]; //权矩阵
double Ch_v[IN_COUT][50], Ch_w[50][OUT_COUT]; //权矩阵修改量
double ChgH[50], ChgO[OUT_COUT]; //修改量矩阵
double O1[50], O2[OUT_COUT]; //隐层和输出层输出量
int LoopCout = (*bp).LoopCout; //最大循环次数
int i, j, k, n;
double temp;
for (i = 0; i < IN_COUT; i++) // 复制结构体中的权矩阵
for (j = 0; j < h; j++)
v[i][j] = (*bp).v[i][j];
for (i = 0; i < h; i++)
for (j = 0; j < OUT_COUT; j++)
w[i][j] = (*bp).w[i][j];
double e = f + 1;
for (n = 0; e > f && n < LoopCout; n++) { //对每个样本训练网络
e = 0;
for (j = 0; j < OUT_COUT; j++)
ChgO[j] = 0;
for (j = 0; j < h; j++)
ChgH[j] = 0;
for (j = 0; j < h; j++)
for (k = 0; k < OUT_COUT; k++)
Ch_w[j][k] = 0;
for (j = 0; j < IN_COUT; j++)
for (k = 0; k < h; k++)
Ch_v[j][k] = 0;
for (i= 0; i < COUT; i++) {
for (k= 0; k < h; k++) { //计算隐层输出向量
temp = 0;
for (j = 0; j < IN_COUT; j++)
temp = temp + x[i][j] * v[j][k];
O1[k] = fnet(temp);
}
for (k = 0; k < OUT_COUT; k++) { //计算输出层输出向量
temp = 0;
for (j = 0; j < h; j++)
temp = temp + O1[j] * w[j][k];
O2[k] = fnet(temp);
}
for (j = 0; j < OUT_COUT ; j++) //计算输出误差
e = e + (y[i][j] - O2[j]) * (y[i][j] - O2[j]);
for (j = 0; j < OUT_COUT; j++)
ChgO[j] = O2[j] * (1 - O2[j]) * (y[i][j] - O2[j]);
for (j = 0; j < h; j++)
for (k = 0; k < OUT_COUT; k++)
Ch_w[j][k] += a * O1[j] * ChgO[k]; //累加所有样本训练后的改变量
for (j = 0; j < h; j++) {
temp = 0;
for (k = 0; k < OUT_COUT; k++)
temp = temp + w[j][k] * ChgO[k];
ChgH[j] = temp * O1[j] * (1 - O1[j]);
}
for (j = 0; j < IN_COUT; j++)
for (k = 0; k < h; k++)
Ch_v[j][k] += a * x[i][j] * ChgH[k]; //累加所有样本训练后的改变量,消除样本顺序影响
}
for (j = 0; j < h; j++) //修改输出层权矩阵
for (k = 0; k < OUT_COUT; k++)
w[j][k] = w[j][k] + Ch_w[j][k];
for (j = 0; j < IN_COUT; j++) //修改隐藏层权矩阵
for (k = 0; k < h; k++)
v[j][k] = v[j][k] + Ch_v[j][k];
if (n % 10 == 0) {
printf("误差 : %f\n", e);
printf("循环次数:%d\n", n);
}
}
printf("总共循环次数:%d\n", n);
printf("调整后的隐层权矩阵:\n");
for (i = 0; i < IN_COUT; i++) {
for (j = 0; j < h; j++)
printf("%f ", v[i][j]);
printf("\n");
}
printf("调整后的输出层权矩阵:\n");
for (i = 0; i < h; i++) {
for (j = 0; j < OUT_COUT; j++)
printf("%f ", w[i][j]);
printf("\n");
}
for (i = 0; i < IN_COUT; i++) //把结果复制回结构体
for (j = 0; j < h; j++)
(*bp).v[i][j] = v[i][j];
for (i = 0; i < h; i++)
for (j = 0; j < OUT_COUT; j++)
(*bp).w[i][j] = w[i][j];
printf("bp网络训练结束!\n");
return 1;
}
int UseBp(bp_nn *bp) { //使用bp网络
float Input[IN_COUT];
double O1[50];
double O2[OUT_COUT]; //O1为隐层输出,O2为输出层输出
while (1) { //持续执行,除非中断程序
printf("请输入3个数:\n");
int i, j;
for (i = 0; i < IN_COUT; i++)
scanf("%f", &Input[i]);
double temp;
for (i = 0; i < (*bp).h; i++) {
temp = 0;
for (j = 0; j < IN_COUT; j++)
temp += Input[j] * (*bp).v[j][i];
O1[i] = fnet(temp);
}
for (i = 0; i < OUT_COUT; i++) {
temp = 0;
for (j = 0; j < (*bp).h; j++)
temp += O1[j] * (*bp).w[j][i];
O2[i] = fnet(temp);
}
printf("结果: ");
for (i = 0; i < OUT_COUT; i++)
printf("%.3f ", O2[i]);
printf("\n");
}
return 1;
}
int main()
{
float x[COUT][IN_COUT] = {{0.8,0.5,0},
{0.9,0.7,0.3},
{1,0.8,0.5},
{0,0.2,0.3},
{0.2,0.1,1.3},
{0.2,0.7,0.8}}; //训练样本
int y[COUT][OUT_COUT] = {{0,1},
{0,1},
{0,1},
{1,0},
{1,0},
{1,0}}; //理想输出
bp_nn bp;
InitBp(&bp); //初始化bp网络结构
TrainBp(&bp, x, y); //训练bp神经网络
UseBp(&bp); //测试bp神经网络
return 1;
}
BP人工神经网络改进算法C语言
来源:互联网 发布日期:2011-12-04 19:30:57 浏览:26742次
导读:BP网络接受样本的顺序会对训练结果有较大的影响,基本算法比较“偏爱”较后出现的样本,因此,改进算法为对整个样本集的训练,用“总效果”去实施对权矩阵的修改,这就能比较好的解决因样本顺序引起的精度问题和训练的抖动。改进后的算法如下:...
相关内容
- 美媒:中美人工智能研究合作很活跃
- 人工智能、RNA与大脑:生物学的2024年
- 大力发展人工智能,科创AI,未来已来
- 面壁智能发布多模态大模型MiniCPM-o 2.6,让AI一直“睁着眼”
- 人工智能热度再起,AI技术全面渗透是大势所趋
- “世界模型”或成AI下一个“必争之地”,英伟达、谷歌双双下场
- 业界热议AI时代企业合规新趋势 专家:管控借助生成式AI完成的合规质量尤为重要
- 在生成式AI时代“抱团取暖”:全球两大视觉内容巨头宣布合并,37亿美元图库巨头或将诞生
- GPT-4o最自私,Claude更慷慨!DeepMind发布全新“AI道德测试”
- AI有泡沫吗?上海交大高金教授蒋展:泡沫是相对的,中国头部AI公司比美国便宜很多
- DeepSeek-V3或证明Ilya“预训练终结论”有误?UC伯克利博士生证明大模型内容可用于训练新模型
- AI领先者共话2025:大模型迎来下半场 Agent、机器人成应用爆发点
- 视觉模型训练成本一年下降80%,中国AI厂商“掀起”全球算力降价潮
- 每年 CES 都在产生共识,今年的共识是「端侧 AI」
- 开启全新嵌入式AI领域,意法半导体让STM32惠益更多应用
- 马修·杰克逊:面对AI,没有什么工作是永远安全的
- 不只 5090,英伟达还发布了最小的「AI 超算」与最大的世界模型
- 混乱、分裂、吞并:2024年AI的信仰之战
- 为超越 OpenAI GPT-4,Meta 不惜使用争议数据训练 Llama 3
- OpenAI:芯片、数据、人才,美国不仅要赢,也必须要赢
AiLab云推荐
最新资讯
- 2025, AI进入“飞天”时刻
- 人工智能热度再起,AI技术全面渗透是大势所趋
- 中国人工智能产业规模5年后或超万亿,这两个行业渗透力居首|言叶知新
- 院士专家呼吁加强人工智能科普 培养学生算法意识
- 业界热议AI时代企业合规新趋势 专家:管控借助生成式AI完成的合规质量尤为重要
- AI领先者共话2025:大模型迎来下半场 Agent、机器人成应用爆发点
- 面壁智能发布多模态大模型MiniCPM-o 2.6,让AI一直“睁着眼”
- 美媒:中美人工智能研究合作很活跃
- 一个大胆的猜测:GPT-5早已存在,只是被OpenAI藏起来了?
- AI有泡沫吗?上海交大高金教授蒋展:泡沫是相对的,中国头部AI公司比美国便宜很多
本月热点
热门排行
-
机构看衰、专家批评项目艰难,大语言模型会不会成为即将破碎的AI泡沫?
阅读量:6969
-
大模型落地路线图研究报告:大模型推动“人工智能+”高质量发展
阅读量:6367
-
人工智能对材料科学研究有哪些深远影响?谢建新院士分享
阅读量:6291
-
这个会议一天提及AI 500次,最后的结论是什么?
阅读量:6151
-
OpenAI 罕见开源!低调发布的新研究,一出来就被碰瓷
阅读量:5819
-
机构看衰、专家批评项目艰难,大语言模型会不会成为即将破碎的AI泡沫?
阅读量:5108