jsp网站开发公司wordpress自动超链接

pingmian/2025/10/12 7:16:34/文章来源:
jsp网站开发公司,wordpress自动超链接,自己开网店需要什么流程,宁波网站建设模板制作基础知识 NLP-分词器#xff1a;SentencePiece【参考Chinese-LLaMA-Alpaca在通用中文语料上训练的20K中文词表并与原版LLaMA模型的32K词表进行合并的代码】_sentencepiece 中文训练-CSDN博客 【OpenLLM 008】大模型基础组件之分词器-万字长文全面解读LLM中的分词算法与分词器…基础知识 NLP-分词器SentencePiece【参考Chinese-LLaMA-Alpaca在通用中文语料上训练的20K中文词表并与原版LLaMA模型的32K词表进行合并的代码】_sentencepiece 中文训练-CSDN博客 【OpenLLM 008】大模型基础组件之分词器-万字长文全面解读LLM中的分词算法与分词器tokenization tokenizersBPE/WordPiece/ULM beyond - 知乎 (zhihu.com) BPE Byte Pair Encoding 步骤 1.语料库 2.确定词表大小 3.为每个单词添加分割符 4.从字母开始迭代合并出现频率高的字符串 2024/9/9 bpe.py wang_yiimport re, collectionsdef get_vocab(filename):vocab collections.defaultdict(int) # 对于 defaultdict(int) 创建的字典来说任何不存在的键在访问时都会自动被赋值为 0with open(filename, r, encodingutf-8) as fhand:for line in fhand:words line.strip().split()for word in words:vocab[ .join(list(word)) /w] 1return vocabdef get_stats(vocab):pairs collections.defaultdict(int)for word, freq in vocab.items():symbols word.split()for i in range(len(symbols)-1):pairs[symbols[i],symbols[i1]] freqreturn pairsdef merge_vocab(pair, v_in):v_out {}bigram re.escape( .join(pair)) # re.escape确保特殊字符被转义以便在正则表达式中按照字面意义进行匹配p re.compile(r(?!\S) bigram r(?!\S)) # ?!负向前瞻断言表示匹配位置前()或后面不是某种模式。\S: 表示任何非空白字符for word in v_in:w_out p.sub(.join(pair), word) # 替换结合字符对保留原来字符串中的其他部分v_out[w_out] v_in[word] # 将处理后的字符串 w_out 作为 v_out 字典的键并将 v_in 字典中对应 word 的值赋给 v_out 字典中这个键return v_outdef get_tokens(vocab):tokens collections.defaultdict(int)for word, freq in vocab.items():word_tokens word.split()for token in word_tokens:tokens[token] freqreturn tokens# vocab {l o w /w: 5, l o w e r /w: 2, n e w e s t /w: 6, w i d e s t /w: 3}# Get free book from Gutenberg # wget http://www.gutenberg.org/cache/epub/16457/pg16457.txt vocab get_vocab(pg16457.txt)print() print(Tokens Before BPE) tokens get_tokens(vocab) print(Tokens: {}.format(tokens)) print(Number of tokens: {}.format(len(tokens))) print()num_merges 1000 for i in range(num_merges):pairs get_stats(vocab)if not pairs:breakbest max(pairs, keypairs.get)vocab merge_vocab(best, vocab)print(Iter: {}.format(i))print(Best pair: {}.format(best))tokens get_tokens(vocab)print(Tokens: {}.format(tokens))print(Number of tokens: {}.format(len(tokens)))print() 单词以/w结尾 新分词 打印结果 Tokens Before BPE Tokens: defaultdict(class int, {T: 1607, h: 26103, e: 59190, /w: 101849, P: 780, r: 29562, o: 35007, j: 858, c: 13900, t: 44238, G: 300, u: 13723, n: 32498, b: 7426, g: 8752, B: 1162, k: 2732, f: 10463, A: 1379, l: 20619, d: 17581, M: 1204, i: 31414, s: 28311, a: 36695, y: 8828, w: 8155, U: 178, S: 865, m: 9751, p: 8030, v: 4878, .: 4061, Y: 250, ,: 8065, -: 1063, L: 426, I: 1428, :: 201, J: 78, V: 102, E: 895, R: 369, 6: 73, 2: 160, 0: 402, 5: 124, [: 32, #: 1, 1: 291, 4: 99, 7: 60, ]: 32, D: 322, C: 862, K: 41, O: 510, /: 31, *: 22, F: 419, H: 688, N: 793, : 4064, !: 1214, W: 576, 3: 104, : 1236, Q: 33, X: 49, Z: 10, ?: 651, 8: 73, 9: 36, _: 1426, à: 3, x: 937, z: 364, °: 41, q: 575, ;: 561, (: 53, ): 53, {: 23, }: 16, è: 2, é: 14, : 2, : 3, ö: 2, ê: 5, â: 1, ô: 1, Æ: 3, æ: 2, —: 2, ™: 57, “: 11, ”: 11, •: 4, %: 1, ‘: 1, ’: 6, $: 2}) Number of tokens: 103Iter: 0 Best pair: (e, /w) Tokens: defaultdict(class int, {T: 1607, h: 26103, e/w: 17758, P: 780, r: 29562, o: 35007, j: 858, e: 41432, c: 13900, t: 44238, /w: 84091, G: 300, u: 13723, n: 32498, b: 7426, g: 8752, B: 1162, k: 2732, f: 10463, A: 1379, l: 20619, d: 17581, M: 1204, i: 31414, s: 28311, a: 36695, y: 8828, w: 8155, U: 178, S: 865, m: 9751, p: 8030, v: 4878, .: 4061, Y: 250, ,: 8065, -: 1063, L: 426, I: 1428, :: 201, J: 78, V: 102, E: 895, R: 369, 6: 73, 2: 160, 0: 402, 5: 124, [: 32, #: 1, 1: 291, 4: 99, 7: 60, ]: 32, D: 322, C: 862, K: 41, O: 510, /: 31, *: 22, F: 419, H: 688, N: 793, : 4064, !: 1214, W: 576, 3: 104, : 1236, Q: 33, X: 49, Z: 10, ?: 651, 8: 73, 9: 36, _: 1426, à: 3, x: 937, z: 364, °: 41, q: 575, ;: 561, (: 53, ): 53, {: 23, }: 16, è: 2, é: 14, : 2, : 3, ö: 2, ê: 5, â: 1, ô: 1, Æ: 3, æ: 2, —: 2, ™: 57, “: 11, ”: 11, •: 4, %: 1, ‘: 1, ’: 6, $: 2}) Number of tokens: 104Iter: 1 Best pair: (t, h) Tokens: defaultdict(class int, {T: 1607, h: 12062, e/w: 17758, P: 780, r: 29562, o: 35007, j: 858, e: 41432, c: 13900, t: 30197, /w: 84091, G: 300, u: 13723, n: 32498, b: 7426, g: 8752, B: 1162, k: 2732, f: 10463, A: 1379, l: 20619, d: 17581, th: 14041, M: 1204, i: 31414, s: 28311, a: 36695, y: 8828, w: 8155, U: 178, S: 865, m: 9751, p: 8030, v: 4878, .: 4061, Y: 250, ,: 8065, -: 1063, L: 426, I: 1428, :: 201, J: 78, V: 102, E: 895, R: 369, 6: 73, 2: 160, 0: 402, 5: 124, [: 32, #: 1, 1: 291, 4: 99, 7: 60, ]: 32, D: 322, C: 862, K: 41, O: 510, /: 31, *: 22, F: 419, H: 688, N: 793, : 4064, !: 1214, W: 576, 3: 104, : 1236, Q: 33, X: 49, Z: 10, ?: 651, 8: 73, 9: 36, _: 1426, à: 3, x: 937, z: 364, °: 41, q: 575, ;: 561, (: 53, ): 53, {: 23, }: 16, è: 2, é: 14, : 2, : 3, ö: 2, ê: 5, â: 1, ô: 1, Æ: 3, æ: 2, —: 2, ™: 57, “: 11, ”: 11, •: 4, %: 1, ‘: 1, ’: 6, $: 2}) Number of tokens: 105Iter: 2 Best pair: (t, /w) Tokens: defaultdict(class int, {T: 1607, h: 12062, e/w: 17758, P: 780, r: 29562, o: 35007, j: 858, e: 41432, c: 13900, t/w: 9280, G: 300, u: 13723, t: 20917, n: 32498, b: 7426, g: 8752, /w: 74811, B: 1162, k: 2732, f: 10463, A: 1379, l: 20619, d: 17581, th: 14041, M: 1204, i: 31414, s: 28311, a: 36695, y: 8828, w: 8155, U: 178, S: 865, m: 9751, p: 8030, v: 4878, .: 4061, Y: 250, ,: 8065, -: 1063, L: 426, I: 1428, :: 201, J: 78, V: 102, E: 895, R: 369, 6: 73, 2: 160, 0: 402, 5: 124, [: 32, #: 1, 1: 291, 4: 99, 7: 60, ]: 32, D: 322, C: 862, K: 41, O: 510, /: 31, *: 22, F: 419, H: 688, N: 793, : 4064, !: 1214, W: 576, 3: 104, : 1236, Q: 33, X: 49, Z: 10, ?: 651, 8: 73, 9: 36, _: 1426, à: 3, x: 937, z: 364, °: 41, q: 575, ;: 561, (: 53, ): 53, {: 23, }: 16, è: 2, é: 14, : 2, : 3, ö: 2, ê: 5, â: 1, ô: 1, Æ: 3, æ: 2, —: 2, ™: 57, “: 11, ”: 11, •: 4, %: 1, ‘: 1, ’: 6, $: 2}) Number of tokens: 106可以保存生成的分词根据分词列表对输入的文本进行分词 2024/9/9 bpe_code.py wang_yiimport re, collectionsdef get_vocab(filename):vocab collections.defaultdict(int)with open(filename, r, encodingutf-8) as fhand:for line in fhand:words line.strip().split()for word in words:vocab[ .join(list(word)) /w] 1return vocabdef get_stats(vocab):pairs collections.defaultdict(int)for word, freq in vocab.items():symbols word.split()for i in range(len(symbols) - 1):pairs[symbols[i], symbols[i 1]] freqreturn pairsdef merge_vocab(pair, v_in):v_out {}bigram re.escape( .join(pair))p re.compile(r(?!\S) bigram r(?!\S))for word in v_in:w_out p.sub(.join(pair), word)v_out[w_out] v_in[word]return v_outdef get_tokens_from_vocab(vocab):tokens_frequencies collections.defaultdict(int)vocab_tokenization {}for word, freq in vocab.items():word_tokens word.split()for token in word_tokens:tokens_frequencies[token] freqvocab_tokenization[.join(word_tokens)] word_tokensreturn tokens_frequencies, vocab_tokenizationdef measure_token_length(token):if token[-4:] /w:return len(token[:-4]) 1else:return len(token)def tokenize_word(string, sorted_tokens, unknown_token/u):if string :return []if sorted_tokens []:return [unknown_token]string_tokens []for i in range(len(sorted_tokens)):token sorted_tokens[i]token_reg re.escape(token.replace(., [.]))matched_positions [(m.start(0), m.end(0)) for m in re.finditer(token_reg, string)]if len(matched_positions) 0:continuesubstring_end_positions [matched_position[0] for matched_position in matched_positions]substring_start_position 0for substring_end_position in substring_end_positions:substring string[substring_start_position:substring_end_position]string_tokens tokenize_word(stringsubstring, sorted_tokenssorted_tokens[i 1:],unknown_tokenunknown_token)string_tokens [token]substring_start_position substring_end_position len(token)remaining_substring string[substring_start_position:]string_tokens tokenize_word(stringremaining_substring, sorted_tokenssorted_tokens[i 1:],unknown_tokenunknown_token)breakreturn string_tokens# vocab {l o w /w: 5, l o w e r /w: 2, n e w e s t /w: 6, w i d e s t /w: 3}vocab get_vocab(pg16457.txt)print() print(Tokens Before BPE) tokens_frequencies, vocab_tokenization get_tokens_from_vocab(vocab) print(All tokens: {}.format(tokens_frequencies.keys())) print(Number of tokens: {}.format(len(tokens_frequencies.keys()))) print()num_merges 100 for i in range(num_merges):pairs get_stats(vocab)if not pairs:breakbest max(pairs, keypairs.get)vocab merge_vocab(best, vocab)print(Iter: {}.format(i))print(Best pair: {}.format(best))tokens_frequencies, vocab_tokenization get_tokens_from_vocab(vocab)print(All tokens: {}.format(tokens_frequencies.keys()))print(Number of tokens: {}.format(len(tokens_frequencies.keys())))print()# Lets check how tokenization will be for a known word word_given_known mountains/w word_given_unknown Ilikeeatingapples!/wsorted_tokens_tuple sorted(tokens_frequencies.items(), keylambda item: (measure_token_length(item[0]), item[1]),reverseTrue) # 根据 measure_token_length(item[0]) 排序如果长度相同则按 item[1]值排序。reverseTrue 降序排序 sorted_tokens [token for (token, freq) in sorted_tokens_tuple]print(sorted_tokens)word_given word_given_knownprint(Tokenizing word: {}....format(word_given)) if word_given in vocab_tokenization:print(Tokenization of the known word:)print(vocab_tokenization[word_given])print(Tokenization treating the known word as unknown:)print(tokenize_word(stringword_given, sorted_tokenssorted_tokens, unknown_token/u)) else:print(Tokenizating of the unknown word:)print(tokenize_word(stringword_given, sorted_tokenssorted_tokens, unknown_token/u))word_given word_given_unknownprint(Tokenizing word: {}....format(word_given)) if word_given in vocab_tokenization:print(Tokenization of the known word:)print(vocab_tokenization[word_given])print(Tokenization treating the known word as unknown:)print(tokenize_word(stringword_given, sorted_tokenssorted_tokens, unknown_token/u)) else:print(Tokenizating of the unknown word:)print(tokenize_word(stringword_given, sorted_tokenssorted_tokens, unknown_token/u)) 字节对编码 - 毛雷日志 (leimao.github.io) 彻底搞懂BPEByte Pair Encode原理附代码实现_bpe实现-CSDN博客 问题 一个词可能存在多种拆分方式对于算法来说难以评估使用那个拆分方式比较合理可以组合的列表中的优先级无法确定通常会直接取第一个。如 encode一个句子linear algebra, 那么存在的划分方法有以下几种 linear  li near 或者 li n ea r algebra  al ge bra 或者 al g e bra 在这个具体的case中每个单词都有两种拆分方法 那么整个句子就有4中拆分方法。 解决方式——在merge的时候考虑merge前后的影响到底有多大 wordpiece WordPiece基于概率生成新的subword而不是最高频字节对。 WordPiece和BPE的区别就在每次merge的过程中 BPE是通过合并最高频次的字节对WordPiece选择能够提升语言模型概率最大的相邻子词加入词表 假设句子S(t1,t2,...,tn)是由n个子词组成ti表示子词且假设各个子词之间是独立存在的则句子S的语言模型似然值等价与所有子词概率的乘积 把相邻位置的x和y两个子词进行合并合并后产生的子词为z此时句子S似然值的变化可表示为 选择让似然概率最大的值具体的计算使用合并后的概率值除以合并前的概率值举个例子, 在考虑将e和s合并的时候除了会考虑es的概率值还会考虑e和s的概率值。或者说es的合并是通过考虑合并带来的价值。 步骤 1.语料库 2.确定词表大小 3.为每个单词添加分割符 4.从字母开始迭代合并前后概率变化最大的字符串 在编码时从头开始查找最长的子词 2024/9/10 wordpiece.py wang_yicorpus [This is the Hugging Face course.,This chapter is about tokenization.,This section shows several tokenizer algorithms.,Hopefully, you will be able to understand how they are trained and generate tokens., ] from transformers import AutoTokenizer from collections import defaultdict # 在進行預標記化時計算語料庫中每個單詞的頻率: tokenizer AutoTokenizer.from_pretrained(rG:\llm_model\bert-base-chinese)word_freqs defaultdict(int) for text in corpus:words_with_offsets tokenizer.backend_tokenizer.pre_tokenizer.pre_tokenize_str(text)new_words [word for word, offset in words_with_offsets]for word in new_words:word_freqs[word] 1print(word_freqs) # 字母表是由單詞的所有第一個字母組成的唯一集合,以及出現在前綴為 ## 的其他字母: alphabet [] for word in word_freqs.keys():if word[0] not in alphabet:alphabet.append(word[0])for letter in word[1:]:if f##{letter} not in alphabet:alphabet.append(f##{letter})alphabet.sort() # alphabet print(alphabet) # 在該詞彙表的開頭添加了模型使用的特殊標記。在使用 BERT 的情況下,它是列表 [[PAD], [UNK], [CLS], [SEP], [MASK]]: vocab [[PAD], [UNK], [CLS], [SEP], [MASK]] alphabet.copy() # 需要拆分每個單詞, 所有不是第一個字母的字母都以 ## 為前綴: splits {word: [c if i 0 else f##{c} for i, c in enumerate(word)]for word in word_freqs.keys() }# 計算每對的分數 def compute_pair_scores(splits):letter_freqs defaultdict(int)pair_freqs defaultdict(int)for word, freq in word_freqs.items():split splits[word]if len(split) 1:letter_freqs[split[0]] freqcontinuefor i in range(len(split) - 1):pair (split[i], split[i 1])letter_freqs[split[i]] freqpair_freqs[pair] freqletter_freqs[split[-1]] freqscores {pair: freq / (letter_freqs[pair[0]] * letter_freqs[pair[1]])for pair, freq in pair_freqs.items()}return scorespair_scores compute_pair_scores(splits) for i, key in enumerate(pair_scores.keys()):print(f{key}: {pair_scores[key]})if i 5:breakbest_pair max_score None for pair, score in pair_scores.items():if max_score is None or max_score score:best_pair pairmax_score scoreprint(best_pair, max_score) # 第一個要學習的合併是 (a, ##b) - ab, 並且我們添加 ab 到詞彙表中: vocab.append(ab)def merge_pair(a, b, splits):for word in word_freqs:split splits[word]if len(split) 1:continuei 0while i len(split) - 1:if split[i] a and split[i 1] b:merge a b[2:] if b.startswith(##) else a bsplit split[:i] [merge] split[i 2:]else:i 1splits[word] splitreturn splitssplits merge_pair(a, ##b, splits) print(splits[about])vocab_size 70 while len(vocab) vocab_size:scores compute_pair_scores(splits)best_pair, max_score , Nonefor pair, score in scores.items():if max_score is None or max_score score:best_pair pairmax_score scoresplits merge_pair(*best_pair, splits)new_token (best_pair[0] best_pair[1][2:]if best_pair[1].startswith(##)else best_pair[0] best_pair[1])vocab.append(new_token) print(vocab)def encode_word(word):tokens []while len(word) 0:i len(word)while i 0 and word[:i] not in vocab:i - 1if i 0:return [[UNK]]tokens.append(word[:i])word word[i:]if len(word) 0:word f##{word}return tokensprint(encode_word(Hugging)) print(encode_word(HOgging))def tokenize(text):pre_tokenize_result tokenizer._tokenizer.pre_tokenizer.pre_tokenize_str(text)pre_tokenized_text [word for word, offset in pre_tokenize_result]encoded_words [encode_word(word) for word in pre_tokenized_text]return sum(encoded_words, [])tokenize(This is the Hugging Face course!)标准化和预标记化 - Hugging Face NLP Course 运行结果 defaultdict(class int, {This: 3, is: 2, the: 1, Hugging: 1, Face: 1, course: 1, .: 4, chapter: 1, about: 1, tokenization: 1, section: 1, shows: 1, several: 1, tokenizer: 1, algorithms: 1, Hopefully: 1, ,: 1, you: 1, will: 1, be: 1, able: 1, to: 1, understand: 1, how: 1, they: 1, are: 1, trained: 1, and: 1, generate: 1, tokens: 1}) [##a, ##b, ##c, ##d, ##e, ##f, ##g, ##h, ##i, ##k, ##l, ##m, ##n, ##o, ##p, ##r, ##s, ##t, ##u, ##v, ##w, ##y, ##z, ,, ., F, H, T, a, b, c, g, h, i, s, t, u, w, y] (T, ##h): 0.125 (##h, ##i): 0.03409090909090909 (##i, ##s): 0.02727272727272727 (i, ##s): 0.1 (t, ##h): 0.03571428571428571 (##h, ##e): 0.011904761904761904 (a, ##b) 0.2 [ab, ##o, ##u, ##t] [[PAD], [UNK], [CLS], [SEP], [MASK], ##a, ##b, ##c, ##d, ##e, ##f, ##g, ##h, ##i, ##k, ##l, ##m, ##n, ##o, ##p, ##r, ##s, ##t, ##u, ##v, ##w, ##y, ##z, ,, ., F, H, T, a, b, c, g, h, i, s, t, u, w, y, ab, ##fu, Fa, Fac, ##ct, ##ful, ##full, ##fully, Th, ##hm, ##thm, Hu, Hug, Hugg, ch, cha, chap, chapt, sh, th, is, ##thms, ##za, ##zat, ##ut, ##ta] [Hugg, ##i, ##n, ##g] [[UNK]] [Th, ##i, ##s, is, th, ##e, Hugg, ##i, ##n, ##g, Fac, ##e, c, ##o, ##u, ##r, ##s, ##e, [UNK]] 单词中首字母不变中间分词以##连接  Unigram Language Model(ULM) 与 BPE 和 WordPiece 相比,Unigram 在另一个方向上工作:它从一个较大的词汇表开始,然后从中删除标记,直到达到所需的词汇表大小。请注意,从不删除基本字符,以确保可以标记任何单词。 在训练的每一步,Unigram 算法都会在给定当前词汇的情况下计算语料库的损失。然后,遍历词汇表中的每个分词,分别计算如果删除该分词,整体损失会增加多少。寻找损失增加最少的分词这些分词对语料库的整体损失影响较小,因此从某种意义上说,它们“不太需要”并且是移除的最佳候选者。 步骤 1.建立一个足够大的词表。 2.求当前词表每个分词在语料上的概率。 3.根据词表计算对语料最优分割下的loss。 4.遍历删除分词计算删除该分词后对语料最优分割下的loss。 5.根据删除某分词后增加的损失进行排序按要求比例丢弃对损失无影响或影响较小的分词。单字符不能被丢弃这是为了避免OOV情况。 6.重复步骤2到5直到词表大小减少到设定范围。 举个例子 语料库 所有分词 所有子词的出现次数 给定分词的概率是它在原始语料库中的频率(我们找到它的次数),除以词汇表中所有分词的所有频率的总和(以确保概率总和为 1)。例如, ug 在 hug 、 pug 以及 hugs 中,所以它在我们的语料库中的频率为 20。所有频率之和为210, 并且子词 ug 出现的概率是 20/210 pug 的标记化 [p, u, g] 的概率为: 标记化 [pu, g] 的概率为: 将一个单词分成尽可能少的分词拥有更高的概率 整体损失函数为 其中num(x)为当前单词在语料中出现的次数p(x)为当前单词按某种分词方式分词的概率。 对于下面的分词方式 所以损失是: 对每种分词方式计算去掉该分词后最优分割方式下整体损失的变化 如将hug分词去掉 按照hu g分割为最优分割 计算整体loss的变化值hugs单词个数*(- (-log(0.071428))   (-log(0.006802))) 23.5 将_作为单词开头

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/88536.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

站酷海洛带网站的图片素材

文末获取源码 开发语言:Java 框架:SSM JDK版本:JDK1.8 数据库:mysql 5.7 开发软件:eclipse/myeclipse/idea Maven包:Maven3.5.4 小程序框架:uniapp 小程序开发软件:HBuilder X 小程序…

乐清住房和城乡建设部网站官网怎么优化网站关键词的方法

Spark 是一个开源的分布式计算框架,旨在处理大规模数据集的快速计算和分析。下面是 Spark 的主要组件及其任务分工的详细介绍: Driver(驱动器):【任务调度】 负责整个 Spark 应用程序的执行和协调。解析用户程序&#…

桂林北站附近有什么好玩的网站设计推广

(第一阶段)问题 5a(3 分) 实现该函数,该函数模拟了完整的 Hog 游戏。球员 交替轮流掷骰子,直到其中一名玩家达到分数。playgoal 您现在可以忽略 Feral Hogs 规则和论点; 您将在问题 5b 中实现它。feral_h…

平面设计类网站有哪些做网站建设公司crm在线的培训服务

文章目录 炸铁路题目描述输入格式输出格式样例 #1样例输入 #1样例输出 #1 题意解析思路CODE 炸铁路 题目描述 A 国派出将军 uim,对 B 国进行战略性措施,以解救涂炭的生灵。 B 国有 n n n 个城市,这些城市以铁路相连。任意两个城市都可以通…

大连网站建设外包公司商丘网络第一媒体

在流媒体项目中字幕显示是不可或缺的一环,一般会有字幕流在视频播放过程中进行显示;不过还有很多情况是从头到尾只在视频的某个区域显示某些文字,例如某个电视台的log;这种也称为字幕,如果想要将这些字符串显示到视频&…

西乡县门户网站宁波市网站排名优化

先贴上关于使用这个日志组件的一些使用方法,等有时间了在吧官方的文档翻译一下吧,现在真是没时间。 Serilog在使用上主要分为两大块: 第一块是主库,包括Serilog以及Serilog.AspNetCore,如果导入后一个的话会自动导入前…

国内虚拟助手网站国外打开网站会不会乱码

参考资料:https://blog.51cto.com/u_11984354/4907646 NO.21-SAP S4 HANA Cloud API接口测试(1)-CSDN博客

dede网站名称不能保存网站开发与建设方向

前面学习了一个简单的例子,这是多年来学习应用程序开发的经典路径,在这里也是这种待遇,通过这样的学习明白了一个简单应用是怎么样构成的,知道它是怎么运行输出的。在这个基础之上,你还是不会开发应用程序的,因为你还没有学习鸿蒙应用的开发语言基础,所以在这里要学习一…

抚顺市 网站建设中国移动积分兑换商城官方网站

资料仅供学习分享用,废话不多说,解压密码为:1024文件是切割压缩的,多个part的压缩包,大家需要先下载到本地在解压,直接百度云解压会提示压缩包损坏。------------------------------学习资料java&#xff1…

免费一键自助建站官网软件开发5个过程

什么是HTTP压缩cssHTTP压缩是指: Web服务器和浏览器之间压缩传输的”文本内容“的方法。 HTTP采用通用的压缩算法,好比gzip来压缩HTML,Javascript, CSS文件。 能大大减小网络传输的数据量,提升了用户显示网页的速度。固然,同时会增长一点点服…

建网站申请济南营销型网站制作

-----2017.11.16 最后一次更新----- 小夕也真的没有想到,在万般绝望之时竟然得到了这么多人的帮助。在本文发出后,多位阿里人员积极联系我了解了情况,很感激一位阿里的专家帮我将此事递交给相关部门,让专业的客服直接受理和重审此…

防制网站怎么做wordpress主页视频

作者: 陈斌(redguardtoo) 更新时间: 2012-02-10 五 原创时间: 2012-01-31 周二 15:08 很容易.一年多前我还在Vi阵营,偶尔使用Emacs还总是忘记退出(C-x C-c)的快捷键,但是一年后我跨入高手行列. 现在网上很多中文文章都是和你强调Emacs有多牛,以激发你的兴趣.最有名的大概是王垠…

中山企业网站建设定制现在都用什么做网站

NaN 是什么 在C中,NaN(Not a Number)是一种特殊的浮点数值,用于表示无法表示的数值或未定义的操作,例如0除以0。如果你的double类型变量显示为NaN,那么可能是在计算过程中出现了这种未定义的操作。 如果你…

如何将别人的网站作为自己的网站报错401

源码简介 超级外链工具,是一款在线全自动化发外链的推广工具。使用本工具可免费为网站在线批量增加外链,大大提高外链发布工作效率,是广大草根站长们必备的站长工具。 搭建环境 PHP 5.6 安装教程 上传源码压缩包到网站目录并解压即可 首…

广州网站优化关键词排名今天广西新闻回放

Atitit。数据库 安全性 重要敏感数据加密存储解决方案 1.1. 加密存储的重要性1 1.2. 使用的加密算法aes1 1.3. 数据加密以后会有一些问题。1 1.3.1. 一个是统计,比如统计资金总额。。就无法直接使用sql的sum等数据库内部聚合函数来处理了。。1 1.3.2. 还有一个就是按…

网站开发项目付款方式如何创建网站快捷方式到桌面

什么是卫语句在方法的开头,我们经常会添加一些检查代码,当检查条件为true时立刻从方法中返回。这样的单独检查代码被称为“卫语句”。例如,我们在添加用户时会检查用户名不能为空,年龄必须大于0:public void AddUser(s…

高端网站制作开发网页应用开发

SDN火热了好一阵子,无论运营商、政府企业、投资机构,一段时间,不知道SDN、不能甩几个SDN相关的名词术语,似乎都落后于时代了。今天,就来看看关于SDN的精华问答吧。1Q:SDN将会提供端到端的IT基础设施可见性&…

鹰手营子矿网站建设qq在线登录聊天

使用w查看系统负载1.w命令,查看系统负载:单位时间内使用cpu的活动的进程有多少个[rootweix01 ~]# w #load average 后面三个数字表示1分钟,5分钟,15分钟的负载值,最合适的是逻辑cpu数量与1分钟负载一致21:10:21 up 8 m…

单页网站排名没有苏州建设工程信息网

最近一直在研究cas登录中心这一块的应用,分享一下记录的一些笔记和心得。后面会把cas-server端的配置和重构,另外还有这几天再搞nginxcas的https反向代理配置,以及cas的证书相关的知识分享出来。 Cas由两部分组成,Cas Server和Cas…

书店建设网站的能力一 网站建设的总体目标

一、微网系统运行优化模型 微电网优化模型介绍: 微电网多目标优化调度模型简介_IT猿手的博客-CSDN博客 二、遗传算法GA 遗传算法(Genetic Algorithm,GA)起源于对生物系统所进行的计算机模拟研究,是一种随机全局搜索…