当前位置: 首页 > news >正文

h5企业网站定制排名设计师网上接私单app

h5企业网站定制排名,设计师网上接私单app,网站建设中页面设计,房地产网站建设招商一、多变量线性回归#xff08;Multivariate Linear Regression#xff09; 为什么需要多变量#xff1f; 现实问题中#xff0c;一个目标可能受多个因素影响#xff0c;比如预测房价时#xff1a; x 1 x_1 x1​#xff1a;面积 x 2 x_2 x2​#xff1a;卧室数量 x 3…一、多变量线性回归Multivariate Linear Regression 为什么需要多变量 现实问题中一个目标可能受多个因素影响比如预测房价时 x 1 x_1 x1​面积 x 2 x_2 x2​卧室数量 x 3 x_3 x3​房龄 . . . ... ... 假设函数Hypothesis Function 在单变量线性回归基础上推广为 h θ ( x ) θ 0 θ 1 x 1 θ 2 x 2 ⋯ θ n x n h_\theta(x) \theta_0 \theta_1 x_1 \theta_2 x_2 \cdots \theta_n x_n hθ​(x)θ0​θ1​x1​θ2​x2​⋯θn​xn​ 向量形式更简洁 h θ ( x ) θ T x h_\theta(x) \theta^T x hθ​(x)θTx 其中 θ [ θ 0 , θ 1 , ⋯ , θ n ] T \theta [\theta_0, \theta_1, \cdots, \theta_n]^T θ[θ0​,θ1​,⋯,θn​]T参数向量 x [ 1 , x 1 , x 2 , ⋯ , x n ] T x [1, x_1, x_2, \cdots, x_n]^T x[1,x1​,x2​,⋯,xn​]T x 0 1 x_0 1 x0​1 以统一偏置项 模型核心思想 和单变量回归一样我们要最小化代价函数 J ( θ ) 1 2 m ∑ i 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\theta) \frac{1}{2m} \sum_{i1}^{m} \left( h_\theta(x^{(i)}) - y^{(i)} \right)^2 J(θ)2m1​i1∑m​(hθ​(x(i))−y(i))2 然后通过梯度下降法或正规方程法求解。 Python 示例代码数据模拟 import numpy as np# 模拟数据面积、卧室数房价 X np.array([[2104, 3],[1600, 3],[2400, 3],[1416, 2],[3000, 4]]) y np.array([399.9, 329.9, 369.0, 232.0, 539.9]).reshape(-1, 1)m len(y)# 添加偏置项 x0 1 X np.c_[np.ones((m, 1)), X] # shape (m, n1) theta np.zeros((X.shape[1], 1)) # 初始参数二、特征缩放Feature Scaling 特征数值差距大时如面积 [ 50 , 200 ] [50, 200] [50,200] vs 房龄 [ 1 , 30 ] [1, 30] [1,30]梯度下降可能收敛非常慢因此需要对输入进行缩放。 方法均值归一化mean normalization x i : x i − μ i s i x_i : \frac{x_i - \mu_i}{s_i} xi​:si​xi​−μi​​ μ i \mu_i μi​第 i i i 个特征的平均值 s i s_i si​标准差或最大最小差 使得所有特征都落在类似于 [ − 1 , 1 ] [-1, 1] [−1,1] 范围内 Python 实现 def feature_normalize(X):mu np.mean(X, axis0)sigma np.std(X, axis0)X_norm (X - mu) / sigmareturn X_norm, mu, sigma# 只对 x1~xn 归一化排除 x0 X[:, 1:], mu, sigma feature_normalize(X[:, 1:])三、向量化梯度下降Vectorized Gradient Descent 成本函数 J ( θ ) 1 2 m ( X θ − y ) T ( X θ − y ) J(\theta) \frac{1}{2m}(X\theta - y)^T(X\theta - y) J(θ)2m1​(Xθ−y)T(Xθ−y) 梯度公式向量化 θ : θ − α m X T ( X θ − y ) \theta : \theta - \frac{\alpha}{m} X^T(X\theta - y) θ:θ−mα​XT(Xθ−y) 其中 X X X 是 m × ( n 1 ) m \times (n1) m×(n1) 的训练样本矩阵 y y y 是 m × 1 m \times 1 m×1 的目标值列向量 Python 实现 def compute_cost(X, y, theta):m len(y)return (1 / (2 * m)) * np.sum((X theta - y) ** 2)def gradient_descent(X, y, theta, alpha, num_iters):m len(y)J_history []for _ in range(num_iters):error X theta - ygradient (1 / m) * X.T errortheta - alpha * gradientJ_history.append(compute_cost(X, y, theta))return theta, J_history四、梯度下降的收敛性分析 如何判断收敛 绘制 J ( θ ) J(\theta) J(θ) 随迭代次数的变化图若代价函数持续下降 → 收敛良好若震荡/上升 → 学习率 α \alpha α 太大需调小 调整学习率建议 现象原因解决方法收敛很慢学习率太小增加 α \alpha α震荡甚至发散学习率太大减小 α \alpha α 五、正规方程法Normal Equation 不使用梯度下降直接求解析解 解法公式 θ ( X T X ) − 1 X T y \theta (X^T X)^{-1} X^T y θ(XTX)−1XTy 优点 不需要选择 α \alpha α不需要迭代 缺点 当特征数量 n n n 很大时如 10000求逆操作非常慢甚至不可行 Python 实现 def normal_equation(X, y):return np.linalg.inv(X.T X) X.T ytheta_ne normal_equation(X, y)正规方程特点 优点缺点不需选择学习率不能用于特征非常多的情况矩阵求逆开销大不需迭代一次求解对数据量大、特征维度高时效率较低 六、可视化训练过程损失下降 import matplotlib.pyplot as plttheta, J_history gradient_descent(X, y, theta, alpha0.1, num_iters400)plt.plot(J_history) plt.xlabel(Iterations) plt.ylabel(Cost J(θ)) plt.title(Cost Reduction over Time) plt.grid(True) plt.show()
http://www.zqtcl.cn/news/408685/

相关文章:

  • 北京知名网站建设公司排名学校诗歌网站建设
  • 个人做网站接装修活哪个网站好上海造价信息网官网
  • 网页上做网会员网站备案怎么写oa报表网站开发
  • 郑州服装网站建设网站的层级
  • 东莞建设网站制作怎么建立信息网站平台
  • 网站建设的公司服务手机上做ppt的软件
  • 体育网站模版爱站网
  • 建设部网站最新消息浏览器网站大全免费
  • 网站建设 选中企动力邯郸哪有做网站的公司
  • 个人网站cms系统网站排名下降了怎么办
  • 2o18江苏建设网站施工员模试卷哈尔滨app开发
  • 网站后台管理系统论文湖州交通网站集约化建设项目
  • 唐山地区网站开发公司郑州市哪里有网站建设
  • ps做汽车网站下载网络推广专员招聘
  • 荥阳网站开发WordPress 采集文章 图片
  • 网站域名登记证明文件音乐网站开发需要什么语言工具
  • 贵州域网网站建设东莞做外贸网站的公司
  • ps怎么做华为网站界面怎样做网站步骤
  • 免费做试卷的网站或试卷seo 培训教程
  • 创意网站建设价格多少最新新闻热点事件2022年8月
  • wordpress用户登录界面插件重庆网站排名优化公司
  • 网站整体建设方案设计wordpress 插件升级慢
  • 淄博网站制作升级优化青岛品牌网站建设价格
  • 网站后台管理系统模块星星wordpress模板
  • 网站统计 中文域名优化英语
  • 自己做视频的网站吗怎么建设维护学校的网站
  • 广州网站建设好公司鲁权屯网站建设
  • 网站多数关键词网站使用mip后效果怎么样
  • 如何介绍自己做的网站建设三库一平台
  • 郑州网站商城建设iframe 一直网站底部