当前位置: 首页 > news >正文

如何做网站后台管理游戏服务器

如何做网站后台管理,游戏服务器,小程序开发多少钱,网站授权合同这里面介绍半监督学习里面一些常用的方案#xff1a; K-means ,HAC, PCA 等 目录#xff1a; K-means HAC PCA 一 K-means 【预置条件】 N 个样本分成k 个 簇 step1: 初始化簇中心点 (随机从X中抽取k个样本点作为#xff09; Repeat: For all in X: 根据其到 K-means ,HAC, PCA 等 目录 K-means   HAC   PCA 一  K-means 【预置条件】 N 个样本分成k 个 簇          step1:                 初始化簇中心点 (随机从X中抽取k个样本点作为          Repeat:                  For  all  in X: 根据其到  i1,2,..k的欧式距离:                  代表第n个样本属于第i簇                 updating all                    问题 不同的初始化参数影响很大.可以通过已打标签的数据集作为, 未打标签的 二 Hierachical agglomerative Clustering(HAC)层次凝聚聚类算法 流程        1 build a tree 创建数结构        2  clustering by threshold 通过不同的阀值进行聚类 例   假设有5笔data:     build a tree 1  合并其中距离最近的两项                           2 基于合并后的数据集 ,合并其中距离最小的两项                       1.3  基于  合并其中最小的两项  1.4 最后只剩下最后两项Nk),合并作为root 2  聚类pick a threshold 选择不同的阀值进行分类 比如阀值在黑色虚线的位置  为1类  为一类  为一类    # -*- coding: utf-8 -*-Created on Fri Jan 26 15:55:03 2024author: chengxf2 import numpy as np import mathdef euler_distance(point1, point2):#计算欧几里德距离distance 0.0c point1-point2distance np.sum(np.power(c,2))return math.sqrt(distance)class tree:#定义一个节点def __init__(self, data, left None, right None, distance-1,idx None, count1):self.x dataself.left leftself.right rightself.distance distanceself.id idxself.count countdef mergePoint(a,b):c np.vstack((a,b))return cclass Hierarchical:def __init__(self, k1):assert k0self.k kself.labels Nonedef getNearest(self, nodeList):#获取最邻近点N len(nodeList)#print(\n N,N)min_dist np.inffor i in range(N-1):for j in range(i1, N):#print(\n i ,i,j)pointI nodeList[i].xpointJ nodeList[j].xd euler_distance(pointI, pointJ)if d min_dist:min_dist dcloserst_point (i, j)return closerst_point,min_distdef fit(self, data):N len(data)nodeList [ tree(datax,idx i) for i,x in enumerate(data)]currentclustid -1self.labels [-1]*Nprint(self.labels)while(len(nodeList)self.k):closerest_point,min_dist self.getNearest(nodeList)#print(\n closerest_point,closerest_point)id1, id2 closerest_pointnode1, node2 nodeList[id1], nodeList[id2]merge_vec np.vstack((node1.x,node2.x))avg_vec np.mean(merge_vec,axis0)#print(node1.x, node2.x, avg_vec)new_node tree(dataavg_vec, leftnode1, rightnode2, distancemin_dist, idxcurrentclustid,countnode1.count node2.count)currentclustid - 1del nodeList[id2], nodeList[id1]nodeList.append(new_node)self.nodes nodeListdef calc_label(self):for i, node in enumerate(self.nodes):print(\b label,i)self.leaf_traversal(node, i)def leaf_traversal(self, node: tree, label):if node.left is None and node.right is None:self.labels[node.id] labelif node.left:self.leaf_traversal(node.left, label)if node.right:self.leaf_traversal(node.right, label)if __name__ __main__:data np.array([[1,1],[1,1],[2,2],[3,3],[3,4]] )net Hierarchical(k2)net.fit(data)net.calc_label() 三  PCA(Principle Component Analysis) PCA 是机器学习里面一种主要降维方案深度学习里面常用的是AE编码器. 如下图在3维空间里面不同数据分布在不同的空间通过PCA 降维到2D  空间后不同类别的数据分布依然分布在不同的空间数据处理起来更方便. 原理推导 已知 为列向量 数据集中有m笔该数据集 列向量 在第一个维度上面的投影为 我们期望最大方差 解 (利用) 加上约束条件,利用拉格朗日对偶算法求解 (S是协方差矩阵对称矩阵 对求微分 w 就是特征向量 特征值 实对称矩阵S的重要性质,特征值一般只取前k个大于0的负的只是方向问题 40:00 参考 CV算法K-means 、HAC、Mean Shift Clustering - 简书 13: Unsupervised Learning - Linear Methods_哔哩哔哩_bilibili https://www.johngo689.com/549602/
http://www.zqtcl.cn/news/24901/

相关文章:

  • 网页设计教程详细步骤枣庄做网站优化
  • 网站手机客户端如何开发wordpress抓取
  • 做美食没有广告的网站医疗器械行业
  • 织梦调用网站备案号广州学建设网站
  • 网站 上传文件电脑网站与手机的区别是什么
  • 网站首页锚文本2008 iis 添加 网站 权限设置权限
  • 河南郑州百度网站建设做ktv网站大概多少钱
  • 自助建站系统官网c2c有哪些电商平台
  • 中国建设银行广西分行网站首页网站建设课程设计心得
  • 电力建设专家答疑在哪个网站wordpress二级目录安装
  • 国外做调灵风暴的网站wordpress 国人原创
  • 做网站端口内容无法替换wordpress 评论验证码
  • 长春手机建站模板海底捞oa管理系统
  • 设计作品网站网站备案备案吗
  • 公司建网站多少钱一个月中卫网架配件多少钱
  • 网站推广哪个好专业品牌网站建设价格
  • 二维码制作网站链接自己做网站申请域名
  • 金融公司网站 html比较出名的网站建设公司
  • 登录不了建设银行网站传奇网页游戏排行榜
  • 外贸站外推广凡科网的网站建设好用吗
  • 手机网站会员中心模板下载公司做的网站账务处理
  • 各大网站推广软件安徽省网站建设公司
  • 自己建网站做那个模块好做网站开发用哪门语言
  • 济南建设个人网站平台寻找做电影网站团队合作
  • 怎么做一个公司网站宜宾网站建设88sou
  • 网站后台管理系统制作软件深圳发型网站建设
  • 网站二级页怎么做网页微博视频不能播放
  • 网站建设销售一个月开几个单wordpress回复显示插件
  • 如何自己网站接装修生意做网页设计实训报告总结3000字
  • wordpress 支付宝插件下载企业如何做好网站的seo优化