DSSM 模型技术介绍

转自:git

本文属于新闻推荐实战-召回阶段-DSSM召回模型。区别于策略召回,基于向量召回也是目前工业界常用的一种召回方法。这里我们将介绍一个比较经典的召回模型DSSM,希望读者可以快速掌握模型原理以及细节,同时可以了解具体的实践过程。

DSSM模型结构及原理

召回阶段不同于精排部分,召回模型会遭遇到巨大的候选item,像淘宝、抖音等场景中召回候选item通常是千万乃至亿级别,对于精排模型显然是无法招架的。这不仅仅是因为召回模型相比精排模型更加简单,其中更重要的是不需要线上对所有候选item进行计算,一般都是会在离线为item计算embedding建索引。这是因为无论对于用户A还是用户B,面对的item embedding都不会有区别,所以可以离线对所有的物料提前通过模型计算得到item embedding,当用户上线时,只需要在线计算用户embedding即可,然后通过ANN(Approximate Nearest Neighbor Search)对构建好的item embedding索引进行检索便可以快速召回相似的topK个item。

原理

DSSM(Deep Structured Semantic Model)是由微软研究院于CIKM在2013年提出的一篇工作,该模型主要用来解决NLP领域语义相似度任务,利用深度神经网络将文本表示为低维度的向量,用来提升搜索场景下文档和query匹配的问题。DSSM模型的原理主要是:通过用户搜索行为中query和doc的日志数据,通过深度学习网络将query和doc映射到共同维度的语义空间中,通过最大化query和doc语义向量之间的余弦相似度,从而训练得到隐含语义模型,即query侧特征的embedding和doc侧特征的embedding,进而可以获取语句的低维语义向量表达sentence embedding,可以预测两句话的语义相似度。

而在推荐系统中,最为关键的是如何做好用户与item的匹配问题,因此对于推荐系统中DSSM模型的应用,则是为user和item分别构建独立的子网络塔式结构,利用user和item的曝光或点击数据进行训练,最终得到user侧的embedding和item侧的embedding。

DSSM 模型结构

image-20220224100424897

上图是DSSM模型的结构,该网络结构比较简单,是一个由几层DNN组成网络,我们将要搜索文本(Query)和要匹配的文本(Document)的 embedding 输入到网络,网络输出为 128 维的向量,然后通过向量之间计算余弦相似度来计算向量之间距离,可以看作每一个 query 和 document 之间相似分数,然后在做 softmax。

对于模型的输入术语向量(term vector)(可以被视为信息检索中的原始词袋特性)的大小与用于索引Web文档集合的词汇表的大小相同。在真实的Web搜索任务中,词汇量通常非常大。因此,当使用term vector作为输入时,神经网络的输入层的大小对于推理和模型训练是无法控制的。为了解决这个问题,我们为DNN的第一层开发了一种叫做单词哈希的方法,具体是Word Hashing的方法(由于这主要是NLP中的内容,与本内容不是很相关,具体的可以查看论文)。

以上主要是DSSM的大致内容,将其用到推荐的召回中会存在着一些区别以及需要注意的地方。

推荐领域中的双塔模型

下面将简单的介绍一下各大厂在双塔部分的实际应用,具体内容如下:

朴素的 DSSM 双塔模型

该模型主要是将上述模型中的两个“塔”改为独立的 user 和 item 两个子网络,大概结构如下:

img

其结构非常简单,如上图所示,左侧是用户塔,右侧是Item塔。在用户侧结构中,其输入为用户侧特征(用户画像信息、统计属性以及历史行为序列等);在物品侧结构中,其输入为Item相关特征(Item基本信息、属性信息等)。对于这两个塔本身,则是经典的DNN模型,在训练过程中,其输入由特征OneHot到特征Embedding,再经过几层DNN隐层,两个塔分别输出user embedding和item embedding,最后这两个embedding做内积或者Cosine相似度计算,使得user和item在embedding映射到共同维度的语义空间中。

SENet 双塔模型

该模型主要的改进是在user塔和Item塔的特征Embedding层上,各自加入一个SENet模块,借助SENet网络用来动态地学习特征的重要性,根据得到的特征权重与对应特征的embedding相乘,进而达到放大重要特征或抑制无效特征的目的,模型大致结构如下所示:

img

其模型和朴素DSSM模型的区别在于多加了一个SENet网络,该网络主要是将特征的 embedding 通过 Squeeze 和Excitation 两个阶段得到一个权重向量,在用该向量与特征的embeding对应为相乘,挑选出最要特征之后在进入到朴素的DSSM网络中。 而 SENet 之所以起作用的原因,张俊林老师的解释是 SENet 可以突出那些对高层 User embedding 和 Item embedding 的特征交叉起重要作用的特征,更有利于表达两侧的特征交互,避免单侧无效特征经过DNN双塔非线性融合时带来的噪声,同时又带有非线性的作用。关于SENet网络详细内容可以查看原文

Youtube的双塔模型

该模型是Youtube于2019年在RecSys发表的一篇工作,这个模型从结构上来看是最普通的双塔。左边是user塔,输入包括两部分,第一部分是user当前正在观看的视频的特征,第二部分user的特征是用户历史行为的统计量,例如用户最近观看的N条视频的id embedding均值,这两部分融合起来一起输入user侧的输入。右边是item塔,将候选视频的特征作为输入,计算item的 embedding。之后也是再计算两侧embedding的相似度,进行学习。 模型的大致结构如下所示:

image-20220224100307472

对于该模型,重点并不在于结构上的改变,而是对于负采样问题。因为召回的过程可以被视为是一个多分类问题,模型的输出层选择softmax计算后再计算交叉熵损失。但问题是当候选item特别多的时候,无法对所有的item进行softmax,因此通常的做法是随机从全量item中采样出一个batch的item进行softmax。但是使用batch内的样本作为彼此负样本会带来非常大的偏置问题,即对于热门的样本,被当作负样本的概率更高,因此该模型的贡献在于如何减小batch内负采样所带来的偏置问题? 关于paper的详细内容可以查看原文

召回模型的负样本

相比于排序模型而言,召回阶段的模型除了在结构上的不同,在样本选择方面也存在着很大的差异,可以说样本的选择很大程度上会影响召回模型的效果。对于召回模型而言,其负样本并不能和排序模型一样只使用展现未点击样本,因为召回模型在线上面临的数据分布是全部的item,而不仅仅是展现未点击样本。因此在离线训练时,需要让其保证和线上分布尽可能一致,所以在负样本的选择样要尽可能的增加很多未被曝光的item。

下面简单的介绍一些常见的采样方法。

全局随机采样

全局随机采样指:从全局候选item里面随机抽取一定数量item做为召回模型的负样本。这样的方式实现简单,也可以让模型尽可能的和线上保持一致的分布,尽可能的多的让模型对于全局item有区分的能力。例如YoutubeDNN算法。

但这样的方式也会存在一定的问题,由于候选的item属于长尾数据,即“八二定律”,也就是说少数热门物料占据了绝大多数的曝光与点击。因此存随机的方式只能让模型在学到粗粒度上差异,对一些尾部item并不友好。

全局随机采样 + 热门打压

针对于全局随机采样的不足,一个直观的方法是针对于item的热度item进行打压,即对于热门的item很多用户可能会点击,需要进行一定程度的欠采样,使得模型更加关注一些非热门的item。 此外在进行负样本采样时,应该对一些热门item进行适当的过采样,这可以尽可能的让模型对于负样本有更加细粒度的区分。例如在word2vec中,负采样方法是根据word的频率,对 negative words进行随机抽样,降低 negative words 量级。

之所以热门item做负样本时,要适当过采样,增加负样本难度。因为对于全量的item,模型可以轻易的区分一些和用户兴趣差异性很大的item,难点在于很难区分一些和用户兴趣相似的item。因此在训练模型时,需要适当的增加一些难以区分的负样本来提升模型面对相似item的分区能力。

Hard Negative增强样本

Hard Negative指的是选取一部分匹配度适中的item,能够增加模型在训练时的难度,提升模型能学习到item之间细粒度上的差异。至于如何选取在工业界也有很多的解决方案。

例如Airbnb根据业务逻辑来采样一些hard negative (增加与正样本同城的房间作为负样本,增强了正负样本在地域上的相似性;增加与正样本同城的房间作为负样本,增强了正负样本在地域上的相似性,),详细内容可以查看原文

例如百度和facebook依靠模型自己来挖掘Hard Negative,都是用上一版本的召回模型筛选出"没那么相似"的<user,item>对,作为额外负样本,用于训练下一版本召回模型。 详细可以查看Mobius 和 EBR

基于Deepmatch的DSSM使用方法

这次实验使用的数据集是采样的一个数据集,利用Deepmatch库来使用一下DSSM召回模型。该模型的实现主要参考:DeepCtr和DeepMatch模块。

模型训练数据

1、数据预处理

用户侧主要包含一些用户画像属性(用户性别,年龄,所在省市,使用设备及系统);新闻侧主要包括新闻的创建时间,题目,所属一级、二级类别,题片个数以及关键词。下面主要是对着两部分数据的简单处理:

  def proccess(file):if file=="user_info_data_5w.csv":data = pd.read_csv(file_path + file, sep="\t",index_col=0)data["age"] = data["age"].map(lambda x: get_pro_age(x))data["gender"] = data["gender"].map(lambda x: get_pro_age(x))data["province"]=data["province"].fillna(method='ffill')data["city"]=data["city"].fillna(method='ffill')data["device"] = data["device"].fillna(method='ffill')data["os"] = data["os"].fillna(method='ffill')return dataelif file=="doc_info.txt": data = pd.read_csv(file_path + file, sep="\t")data.columns = ["article_id", "title", "ctime", "img_num","cate","sub_cate", "key_words"]select_column = ["article_id", "title_len", "ctime", "img_num","cate","sub_cate", "key_words"]# 去除时间为nan的新闻以及除脏数据data= data[(data["ctime"].notna()) & (data["ctime"] != 'Android')]data['ctime'] = data['ctime'].astype('str')data['ctime'] = data['ctime'].apply(lambda x: int(x[:10])) data['ctime'] = pd.to_datetime(data['ctime'], unit='s', errors='coerce')# 这里存在nan字符串和异常数据data["sub_cate"] = data["sub_cate"].astype(str) data["sub_cate"] = data["sub_cate"].apply(lambda x: pro_sub_cate(x))  data["img_num"] = data["img_num"].astype(str)  data["img_num"] = data["img_num"].apply(photoNums)data["title_len"] = data["title"].apply(lambda x: len(x) if isinstance(x, str) else 0)data["cate"] = data["cate"].fillna('其他')  return data[select_column]

2、构造训练样本

该部分主要是根据用户的交互日志中前6天的数据作为训练集,第7天的数据作为测试集,来构造模型的训练测试样本。

  def dealsample(file, doc_data, user_data, s_data_str = "2021-06-24 00:00:00", e_data_str="2021-06-30 23:59:59", neg_num=5):# 先处理时间问题 data = pd.read_csv(file_path + file, sep="\t",index_col=0)data['expo_time'] = data['expo_time'].astype('str')data['expo_time'] = data['expo_time'].apply(lambda x: int(x[:10])) data['expo_time'] = pd.to_datetime(data['expo_time'], unit='s', errors='coerce')s_date = datetime.datetime.strptime(s_data_str,"%Y-%m-%d %H:%M:%S")e_date = datetime.datetime.strptime(e_data_str,"%Y-%m-%d %H:%M:%S") + datetime.timedelta(days=-1)t_date = datetime.datetime.strptime(e_data_str,"%Y-%m-%d %H:%M:%S")# 选取训练和测试所需的数据all_data_tmp = data[(data["expo_time"]>=s_date) & (data["expo_time"]<=t_date)]# 处理训练数据集  防止穿越样本# 1. merge 新闻信息,得到曝光时间和新闻创建时间; inner join 去除doc_data之外的新闻all_data_tmp = all_data_tmp.join(doc_data.set_index("article_id"),on="article_id",how='inner')# 发现还存在 ctime大于expo_time的交互存在  去除这部分错误数据all_data_tmp = all_data_tmp[(all_data_tmp["ctime"]<=all_data_tmp["expo_time"])]# 2. 去除与新闻的创建时间在测试数据时间内的交互  ()train_data = all_data_tmp[(all_data_tmp["expo_time"]>=s_date) & (all_data_tmp["expo_time"]<=e_date)]train_data = train_data[(train_data["ctime"]<=e_date)]print("有效的样本数:",train_data["expo_time"].count())# 负采样if os.path.exists(file_path + "neg_sample.pkl") and os.path.getsize(file_path + "neg_sample.pkl"):neg_samples = pd.read_pickle(file_path + "neg_sample.pkl")# train_neg_samples.insert(loc=2, column="click", value=[0] * train_neg_samples["user_id"].count())else:# 进行负采样的时候对于样本进行限制,只对一定时间范围之内的样本进行负采样doc_data_tmp = doc_data[(doc_data["ctime"]>=datetime.datetime.strptime("2021-06-01 00:00:00","%Y-%m-%d %H:%M:%S"))]neg_samples = negSample_like_word2vec(train_data, doc_data_tmp[["article_id"]].values, user_data[["user_id"]].values, neg_num=neg_num)neg_samples = pd.DataFrame(neg_samples, columns= ["user_id","article_id","click"]) neg_samples.to_pickle(file_path + "neg_sample.pkl")train_pos_samples = train_data[train_data["click"] == 1][["user_id","article_id", "expo_time", "click"]]   # 取正样本 neg_samples_df = train_data[train_data["click"] == 0][["user_id","article_id", "click"]]train_neg_samples = pd.concat([neg_samples_df.sample(n=train_pos_samples["click"].count()) ,neg_samples],axis=0)  # 取负样本  print("训练集正样本数:",train_pos_samples["click"].count())print("训练集负样本数:",train_neg_samples["click"].count())train_data_df = pd.concat([train_neg_samples,train_pos_samples],axis=0) train_data_df = train_data_df.sample(frac=1)  # shuffleprint("训练集总样本数:",train_data_df["click"].count())test_data_df =  all_data_tmp[(all_data_tmp["expo_time"]>e_date) & (all_data_tmp["expo_time"]<=t_date)][["user_id","article_id", "expo_time", "click"]]print("测试集总样本数:",test_data_df["click"].count())print("测试集总样本数:",test_data_df["click"].count())all_data_df =  pd.concat([train_data_df, test_data_df],axis=0) print("总样本数:",all_data_df["click"].count())return all_data_df

3、负样本采样

该部分主要采用基于item的展现次数对全局item进行负采样。

  def negSample_like_word2vec(train_data, all_items, all_users, neg_num=10):"""为所有item计算一个采样概率,根据概率为每个用户采样neg_num个负样本,返回所有负样本对1. 统计所有item在交互中的出现频次2. 根据频次进行排序,并计算item采样概率(频次出现越多,采样概率越低,打压热门item)3. 根据采样概率,利用多线程为每个用户采样 neg_num 个负样本"""  pos_samples = train_data[train_data["click"] == 1][["user_id","article_id"]]pos_samples_dic = {}for idx,u in enumerate(pos_samples["user_id"].unique().tolist()):pos_list = list(pos_samples[pos_samples["user_id"] == u]["article_id"].unique().tolist())if len(pos_list) >= 30:  # 30是拍的  需要数据统计的支持确定pos_samples_dic[u] = pos_list[30:]else:pos_samples_dic[u] = pos_list# 统计出现频次article_counts = train_data["article_id"].value_counts()df_article_counts = pd.DataFrame(article_counts)dic_article_counts = dict(zip(df_article_counts.index.values.tolist(),df_article_counts.article_id.tolist()))for item in all_items: if item[0] not in dic_article_counts.keys():dic_article_counts[item[0]] = 0# 根据频次排序, 并计算每个item的采样概率tmp = sorted(list(dic_article_counts.items()), key=lambda x:x[1], reverse=True)  # 降序n_articles = len(tmp)article_prob = {}for idx, item in enumerate(tmp):article_prob[item[0]] = cal_pos(idx, n_articles) # 为每个用户进行负采样article_id_list = [a[0] for a in article_prob.items()]article_pro_list = [a[1] for a in article_prob.items()]pos_sample_users = list(pos_samples_dic.keys()) all_users_list = [u[0] for u in all_users]print("start negative sampling !!!!!!")pool = multiprocessing.Pool(core_size)res = pool.map(SampleOneProb((pos_sample_users,article_id_list,article_pro_list,pos_samples_dic,neg_num)), tqdm(all_users_list))pool.close()pool.join() neg_sample_dic = {}for idx, u in tqdm(enumerate(all_users_list)):neg_sample_dic[u] = res[idx] return [[k,i,0] for k,v in neg_sample_dic.items() for i in v]

模型训练

1、稀疏特征编码

该部分主要是针对于用户侧和新闻侧的稀疏特征进行编码,并将训练样本join上两侧的特征。

  # 数据和测试数据 data, user_data, doc_data = get_all_data()  # 1.Label Encoding for sparse features,and process sequence features with `gen_date_set` and `gen_model_input`feature_max_idx = {} feature_encoder = {}  user_sparse_features = ["user_id", "device", "os", "province", "city", "age", "gender"]for feature in user_sparse_features:lbe = LabelEncoder()user_data[feature] = lbe.fit_transform(user_data[feature]) + 1feature_max_idx[feature] = user_data[feature].max() + 1feature_encoder[feature] = lbedoc_sparse_features = ["article_id", "cate", "sub_cate"]doc_dense_features = ["title_len", "img_num"]for feature in doc_sparse_features:lbe = LabelEncoder()if feature in ["cate","sub_cate"]:# 这里面会出现一些float的数据,导致无法编码doc_data[feature] = lbe.fit_transform(doc_data[feature].astype(str)) + 1else:doc_data[feature] = lbe.fit_transform(doc_data[feature]) + 1feature_max_idx[feature] = doc_data[feature].max() + 1feature_encoder[feature] = lbedata["article_id"] = feature_encoder["article_id"].transform(data["article_id"].tolist())data["user_id"] = feature_encoder["user_id"].transform(data["user_id"].tolist())# join 用户侧和新闻侧的特征data = data.join(user_data.set_index("user_id"), on="user_id", how="inner")data = data.join(doc_data.set_index("article_id"), on="article_id", how="inner")sparse_features = user_sparse_features + doc_sparse_featuresdense_features = doc_dense_featuresfeatures = sparse_features + dense_featuresmms = MinMaxScaler(feature_range=(0, 1))data[dense_features] = mms.fit_transform(data[dense_features])

2、配置特征以及模型训练

基于DeepMatch库,构建模型所需的输入特征,同时构建DSSM模型及训练。

  embedding_dim = 8user_feature_columns = [SparseFeat('user_id', feature_max_idx['user_id'], embedding_dim),SparseFeat("gender", feature_max_idx['gender'], embedding_dim),SparseFeat("age", feature_max_idx['age'], embedding_dim),SparseFeat("device", feature_max_idx['device'], embedding_dim),SparseFeat("os", feature_max_idx['os'], embedding_dim),SparseFeat("province", feature_max_idx['province'], embedding_dim),SparseFeat("city", feature_max_idx['city'], embedding_dim),  ]item_feature_columns = [SparseFeat('article_id', feature_max_idx['article_id'], embedding_dim),DenseFeat('img_num', 1),DenseFeat('title_len', 1),​              SparseFeat('cate', feature_max_idx['cate'], embedding_dim),​              SparseFeat('sub_cate', feature_max_idx['sub_cate'], embedding_dim)]model = DSSM(user_feature_columns, item_feature_columns,​          user_dnn_hidden_units=(32, 16, embedding_dim), item_dnn_hidden_units=(32, 16, embedding_dim))  # FM(user_feature_columns,item_feature_columns)model.compile(optimizer="adagrad", loss = "binary_crossentropy", metrics=[tf.keras.metrics.Recall(), tf.keras.metrics.Precision()] ) # history = model.fit(train_model_input, train_label, batch_size=256, epochs=4, verbose=1, validation_split=0.2, )

3、生成embedding用于召回

利用训练过的模型获取所有item的embeddings,同时获取所有测试集的user embedding,保存之后用于之后的召回工作。

  all_item_model_input = {"article_id": item_profile['article_id'].values,"img_num": item_profile['img_num'].values,"title_len": item_profile['title_len'].values,"cate": item_profile['cate'].values,"sub_cate": item_profile['sub_cate'].values,}user_embedding_model = Model(inputs=model.user_input, outputs=model.user_embedding)item_embedding_model = Model(inputs=model.item_input, outputs=model.item_embedding)user_embs = user_embedding_model.predict(test_user_model_input, batch_size=2 ** 12)item_embs = item_embedding_model.predict(all_item_model_input, batch_size=2 ** 12)user_idx_2_rawid, doc_idx_2_rawid = {}, {}for i in range(len(user_embs)):user_idx_2_rawid[i] = test_user_model_input["user_id"][i]for i in range(len(item_embs)):doc_idx_2_rawid[i] = all_item_model_input["article_id"][i]# 保存一份pickle.dump((user_embs, user_idx_2_rawid, feature_encoder["user_id"]), open(file_path + 'user_embs.pkl', 'wb'))pickle.dump((item_embs, doc_idx_2_rawid, feature_encoder["article_id"]), open(file_path + 'item_embs.pkl', 'wb'))

ANN召回

1、为测试集用户召回

通过annoy tree为所有的item构建索引,并通过测试集中所有的user embedding为每个用户召回一定数量的item。

def get_DSSM_recall_res(user_embs, doc_embs, user_idx_2_rawid, doc_idx_2_rawid, topk):"""近邻检索,这里用annoy tree"""# 把doc_embs构建成索引树f = user_embs.shape[1]t = AnnoyIndex(f, 'angular')for i, v in enumerate(doc_embs):t.add_item(i, v)t.build(10) # 每个用户向量, 返回最近的TopK个itemuser_recall_items_dict = collections.defaultdict(dict)for i, u in enumerate(user_embs):recall_doc_scores = t.get_nns_by_vector(u, topk, include_distances=True)# recall_doc_scores是(([doc_idx], [scores])), 这里需要转成原始doc的idraw_doc_scores = list(recall_doc_scores)raw_doc_scores[0] = [doc_idx_2_rawid[i] for i in raw_doc_scores[0]]# 转换成实际用户iduser_recall_items_dict[user_idx_2_rawid[i]] = dict(zip(*raw_doc_scores))user_recall_items_dict = {k: sorted(v.items(), key=lambda x: x[1], reverse=True) for k, v in user_recall_items_dict.items()}pickle.dump(user_recall_items_dict, open(file_path + 'DSSM_u2i_dict.pkl', 'wb'))return user_recall_items_dict 

2、测试召回结果

为测试集用户的召回结果进行测试。

  user_recall_items_dict = get_DSSM_recall_res(user_embs, item_embs, user_idx_2_rawid, doc_idx_2_rawid, topk=TOP_NUM)test_true_items = {line[0]:line[1] for line in test_set}s = []precision = []for i, uid in tqdm(enumerate(list(user_recall_items_dict.keys()))):# try:pred = [x for x, _ in user_recall_items_dict[uid]]filter_item = Nonerecall_score = recall_N(test_true_items[uid], pred, N=TOP_NUM)s.append(recall_score)precision_score = precision_N(test_true_items[uid], pred, N=TOP_NUM)precision.append(precision_score) print("recall", np.mean(s))print("precision", np.mean(precision))

以上就是整个DSSM使用的整体流程,这里我用了简单的recall@N和precision@N来评估,下面是top 200的结果:

上述的结果不好,主要的原因在于数据量太少,样本不充足导致模型本身训练的不好,进而不能得到更好的向量表示。

参考

  • Mobius

  • EBR

  • 负样本为王:评Facebook的向量化召回算法

  • airbnb

  • 召回模型中的负样本构造

  • Youtube双塔模型

  • DSSM

  • SENet双塔模型:在推荐领域召回粗排的应用及其它

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/827638.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Nacos原理简单介绍

注册中心原理 官网&#xff1a;Nacos 注册中心的设计原理 | Nacos nacos注册中心采用了 &#xff1a;pull &#xff08;客户端的轮询&#xff09;和push &#xff08;服务端主动push&#xff09;策略 客户端启动时会将当前服务的信息包含ip、端口号、服务名、集群名等信息封装…

电脑问题快速判断

电脑开机没有任何反应 检查电源 检查电源是否有问题或损坏&#xff0c;可以短接方法检测 板电源卡口对自己接第四或第五根线&#xff0c;若风扇匀速转动&#xff0c;电源无问题&#xff0c;若不转动或转一下停一下&#xff0c;电源有问题 检查内部连线 确保主板上的线插的…

2024新算法角蜥优化算法(HLOA)和经典灰狼优化器(GWO)进行无人机三维路径规划设计实验

简介&#xff1a; 2024新算法角蜥优化算法&#xff08;HLOA&#xff09;和经典灰狼优化器&#xff08;GWO&#xff09;进行无人机三维路径规划设计实验。 无人机三维路径规划的重要意义在于确保飞行安全、优化飞行路线以节省时间和能源消耗&#xff0c;并使无人机能够适应复杂…

手把手教你搭建鲜花团购小程序

随着互联网的快速发展&#xff0c;线上小程序商城已经成为了一种流行的电商模式。对于花店来说&#xff0c;开发线上小程序商城不仅可以扩大销售渠道&#xff0c;提高销售效率&#xff0c;还可以增加客户粘性&#xff0c;提升品牌形象。下面就以花店为例&#xff0c;教你怎么开…

OceanBase V4.2特性解析:用 Show Trace 快速定位数据库性能瓶颈

在数据库日常运维中&#xff0c;当遇到慢SQL问题时&#xff0c;若无法迅速查明原因&#xff0c;将极大地影响用户的使用感受&#xff0c;甚至可能引发业务或服务的中断。相较于单机数据库&#xff0c;分布式数据库系统因其涉及多个节点和多组件的协同工作&#xff0c;集群规模可…

DSP开发实战教程--EPWM模块的影子寄存器详细讲解原理和代码实例

EPWM模块影子寄存器的原理 在TI(Texas Instruments)的DSP28335中,EPWM(Enhanced Pulse Width Modulator)模块提供了高精度、高灵活性的PWM信号生成功能。为了能在不影响当前PWM波形输出的情况下预装载新的PWM参数(如周期、占空比等),EPWM模块引入了影子寄存器的概念。 …

STM32 ADC转换器

一、ADC简介 ADC&#xff08;Analog-Digital Converter&#xff0c;模拟-数字转换器&#xff09;&#xff0c;可以将引脚上连续变化的模拟量转换为内存中存储的数字量&#xff0c;建立模拟电路到数字电路的桥梁 模拟量&#xff1a;时间和幅值均连续的信号&#xff0c;例如&…

sklearn 笔记 metrics

1 分类 1.1 accuracy_score 分类准确率得分 在多标签分类中&#xff0c;此函数计算子集准确率&#xff1a;y_pred的标签集必须与 y_true 中的相应标签集完全匹配。 1.1.1 参数 y_true真实&#xff08;正确&#xff09;标签y_pred由分类器返回的预测标签normalize 默认为 Tr…

LLama的激活函数SwiGLU 解释

目录 Swish激活函数 1. Swish函数公式 LLaMA模型中的激活函数 1. SwiGLU激活函数 2. SwiGLU激活函数的表达式 3. SwiGLU激活函数的优势 Swish激活函数 Swish是一种激活函数&#xff0c;其计算公式如下&#xff1a; 1. Swish函数公式 Swish(x) x * sigmoid(x) 其中&am…

概率图模型在机器学习中的应用:贝叶斯网络与马尔可夫随机场

&#x1f9d1; 作者简介&#xff1a;阿里巴巴嵌入式技术专家&#xff0c;深耕嵌入式人工智能领域&#xff0c;具备多年的嵌入式硬件产品研发管理经验。 &#x1f4d2; 博客介绍&#xff1a;分享嵌入式开发领域的相关知识、经验、思考和感悟&#xff0c;欢迎关注。提供嵌入式方向…

【重要】Heygen订阅指南和用法详解!让照片学说话?一张照片变演讲?Heygen订阅值得吗?

常见问题 Q&#xff1a;Heygen是什么&#xff1f;Heygen是什么玩意&#xff1f; A&#xff1a;Heygen是一款由AI视频工具,创作者只需要上传视频并选择要翻译的语言&#xff0c;该工具可实现自动翻译、调整音色、匹配嘴型。为了方便理解&#xff0c;笔者利用Heygen制作了一个AI视…

裤裤带你一起学C语言内存函数啦!

目录 1.memcpy的使用和模拟实现 2.memmove使用和模拟实现 3.memset函数的使用 4.memcmp函数的使用 内存函数在<string.h>库中&#xff0c;我们使用内存函数必须先引入<string.h>头文件 1.memcpy的使用和模拟实现 memcpy的函数原型如下&#xff1a; void * m…

Vue--》深入了解 VueUse 功能性工具集

今天博主为大家介绍一款实用性的插件名字叫做 VueUse &#xff0c;它是专门为 Vue.js 生态系统设计的功能性工具集合。其提供了许多可重用的功能函数&#xff0c;可以帮助开发者更轻松地构建 Vue.js 应用程序。其提供了大量的功能&#xff0c;包括状态管理、副作用管理、组合式…

【刷题】前缀和入门

送给大家一句话&#xff1a; 既然已经做出了选择&#xff0c;最好还是先假定自己是对的。焦虑未来和后悔过去&#xff0c;只经历一个就够了。 – 张寒寺 《不正常人类症候群》 ☆ミヾ(∇≦((ヾ(≧∇≦)〃))≧∇)ノ彡☆ ☆ミヾ(∇≦((ヾ(≧∇≦)〃))≧∇)ノ彡☆ ☆ミヾ(∇≦((ヾ…

react引入iconfont的svg图标

react引入iconfont的svg图标 本文目录 react引入iconfont的svg图标普通图标通过link引入css组件内引入css使用 svg图标通过script引入js组件内引入js使用 通过封装组件自定义封装组件中调用 通过antd封装使用 普通图标 通过link引入css <link rel"stylesheet" h…

基于springboot实现在线考试系统设计【项目源码+论文说明】计算机毕业设计

基于springboot实现在线考试管理系统演示 摘要 随着信息技术在管理上越来越深入而广泛的应用&#xff0c;管理信息系统的实施在技术上已逐步成熟。本文介绍了基于JavaWeb技术的在线考试系统设计与实现的开发全过程。通过分析基于Java Web技术的在线考试系统设计与实现管理的不…

http 3.0 有哪些新特性

HTTP/3 是超文本传输协议&#xff08;HTTP&#xff09;的最新主要版本&#xff0c;其显著特点是放弃了传统的TCP作为传输层协议&#xff0c;转而采用基于UDP的QUIC&#xff08;Quick UDP Internet Connections&#xff09;协议。以下是HTTP/3利用QUIC实现高性能传输的关键特性&…

sketchup{su}安装错误1402

错误如图 解决方法如下 打开autoremove&#xff0c;点击扩展&#xff0c;输入1402&#xff0c;点击搜索 等待修复成功既可尝试重新安装su 软件每周六选择其他方式登录免费使用

微软github技术公开课(web开发、生成式AI、ML、数据科学、物联网)

一些微软在github上公开的课程整理&#xff1a; web开发基础入门 面向初学者的数据数据科学课程 https://microsoft.github.io/Data-Science-For-Beginners/#/ 面向初学者的AI入门课程 https://github.com/microsoft/ai-for-beginners 面向初学者的生成式AI课程 https://…

WordPress自动采集发布AutoPostPro汉化版插件

WP-AutoPostPro 是一款极为出色的WordPress自动采集发布插件&#xff0c;其显著优势在于能够从任何网站抓取内容并自动将其发布到你的WordPress网站上。它实现了对任何网页内容的自动采集和发布&#xff0c;整个采集过程完全自动化&#xff0c;无需手动操作。 项 目 地 址 &…