异步检索在 Elasticsearch 中的理论与实践

异步检索在 Elasticsearch 中的理论与实践

https://www.elastic.co/guide/en/elasticsearch/reference/8.1/async-search.html#submit-async-search

引言

Elasticsearch 是一种强大的分布式搜索和分析引擎,它能够快速地存储、搜索和分析大量数据。在处理大规模数据时,性能和响应时间变得至关重要。为了提高搜索和查询操作的效率,Elasticsearch 支持异步检索。本文将深入探讨异步检索在 Elasticsearch 中的理论原理,展示如何在实践中使用它,并提供使用场景和注意事项。

什么是异步检索?

在传统的同步搜索中,当客户端发出一个查询请求后,它需要等待 Elasticsearch 返回所有匹配结果才能继续处理其他任务。而异步检索允许客户端发起一个查询请求后,不必等待搜索结果立即返回,而是可以继续执行其他操作。Elasticsearch 在后台处理这个查询请求,当查询完成后,客户端会得到一个响应。

异步检索的优点在于它能够显著提高搜索和查询操作的性能和响应时间,特别是在处理大量数据或复杂查询时。

添加测试数据

使用python3脚本完成,根据github修改而来

https://github.com/oliver006/elasticsearch-test-data

生成测试数据脚本见文章末尾

执行命令

python3 es_test_data.py --es_url=http://127.0.0.1:9200 --count=1000000

如何使用异步检索?

1. 创建异步搜索任务

在 Elasticsearch 中,使用异步检索需要创建一个异步搜索任务。你可以通过发送一个异步搜索请求来创建任务。以下是一个使用 Elasticsearch 的 REST API 发起异步搜索请求的示例:

POST /test_data/_async_search?size=0
{"sort": [{ "last_updated": { "order": "asc" } }],"aggs": {"sale_date": {"date_histogram": {"field": "last_updated","calendar_interval": "1d"}}}
}

在上述示例中,我们向名为 test_data 的索引提交了一个异步搜索请求,该请求使用简单的匹配查询来查找包含特定值的文档。

相应内容如下,注意ID的值即可

如果看不到ID的值,再加一部分数据量再次检索即可

{"id" : "FjU0SDlRSFZ2UTdxZUpkaFdLSF9hOVEdZzBVS3hmd1FTWEc3VmpCc1gzZFZhdzo2NDI0Mzg=","is_partial" : true,"is_running" : true,"start_time_in_millis" : 1690808656033,"expiration_time_in_millis" : 1691240656033,"response" : {"took" : 1001,"timed_out" : false,"terminated_early" : false,"num_reduce_phases" : 0,"_shards" : {"total" : 1,"successful" : 0,"skipped" : 0,"failed" : 0},"hits" : {"total" : {"value" : 0,"relation" : "gte"},"max_score" : null,"hits" : [ ]}}
}

2. 获取异步搜索结果

一旦创建了异步搜索任务,你可以轮询获取任务的结果。Elasticsearch 返回一个任务 ID(上一步返回的ID),你可以使用这个 ID 来检索结果。以下是获取异步搜索结果的示例:

GET /_async_search/<task_id>GET /_async_search/FjU0SDlRSFZ2UTdxZUpkaFdLSF9hOVEdZzBVS3hmd1FTWEc3VmpCc1gzZFZhdzo2NDI0Mzg=

在上述示例中,我们使用 <task_id> 来获取异步搜索任务的状态。

3. 获取异步搜索的状态

获取异步搜索结果后,可以对结果进行处理和解析。通常,结果会以 JSON 格式返回,其中包含搜索的匹配文档、聚合信息等。仅仅是在url中加入status

GET /_async_search/status/FjU0SDlRSFZ2UTdxZUpkaFdLSF9hOVEdZzBVS3hmd1FTWEc3VmpCc1gzZFZhdzo2NDI0Mzg=

返回结果如下

{"id" : "FjU0SDlRSFZ2UTdxZUpkaFdLSF9hOVEdZzBVS3hmd1FTWEc3VmpCc1gzZFZhdzo2NDI0Mzg=","is_running" : false,"is_partial" : false,"start_time_in_millis" : 1690808656033,"expiration_time_in_millis" : 1691240656033,"_shards" : {"total" : 1,"successful" : 1,"skipped" : 0,"failed" : 0},"completion_status" : 200
}

4. 删除异步检索

DELETE /_async_search/FjU0SDlRSFZ2UTdxZUpkaFdLSF9hOVEdZzBVS3hmd1FTWEc3VmpCc1gzZFZhdzo2NDI0Mzg=

使用场景

异步检索在以下场景中特别有用:

  1. 大数据量搜索: 当索引包含大量数据时,同步搜索可能会导致请求阻塞并增加响应时间。异步检索能够提高搜索性能,让客户端可以并发处理其他任务。

  2. 复杂查询: 复杂的搜索查询可能需要更长的处理时间。通过使用异步检索,可以避免客户端长时间等待,提高用户体验。

  3. 定时任务: 如果你需要定期执行一些查询,并将结果导出或进行其他操作,异步检索可以让你更加灵活地处理这些任务。

使用注意事项

虽然异步检索提供了很多好处,但在使用时也需要注意以下事项:

  1. 任务状态管理: 确保正确地管理异步搜索任务的状态。任务可能处于不同的状态,包括运行中、完成和失败。及时清理已经完成或失败的任务,避免资源浪费。

  2. 任务结果有效性: 确保处理异步搜索结果时,对结果进行有效性验证和解析。避免因错误处理结果而导致数据不一致或错误的分析。

  3. 资源限制: 异步检索仍然占用服务器资源,特别是在处理大量并发任务时。确保服务器资源足够以支持异步检索的需求。

  4. 超时和重试: 考虑到网络或其他故障可能导致异步搜索请求失败,需要合理设置超时时间并实现重试机制,以确保请求的可靠性。

结论

异步检索是 Elasticsearch 中一个强大且实用的特性,可以显著提高搜索和查询操作的性能,特别在处理大规模数据或复杂查询时。在使用异步检索时,注意合理管理任务状态、验证结果有效性,并注意资源限制和错误处理。合理地应用异步检索,能为我们的应用程序带来更高效的搜索和分析功能。

测试脚本

#!/usr/bin/pythonimport nest_asyncio
nest_asyncio.apply()import json
import csv
import time
import logging
import random
import string
import uuid
import datetimeimport tornado.gen
import tornado.httpclient
import tornado.ioloop
import tornado.optionstry:xrangerange = xrange
except NameError:passasync_http_client = tornado.httpclient.AsyncHTTPClient()
headers = tornado.httputil.HTTPHeaders({"content-type": "application/json"})
id_counter = 0
upload_data_count = 0
_dict_data = Nonedef delete_index(idx_name):try:url = "%s/%s?refresh=true" % (tornado.options.options.es_url, idx_name)request = tornado.httpclient.HTTPRequest(url, headers=headers, method="DELETE", request_timeout=240, auth_username=tornado.options.options.username, auth_password=tornado.options.options.password, validate_cert=tornado.options.options.validate_cert)response = tornado.httpclient.HTTPClient().fetch(request)logging.info('Deleting index  "%s" done   %s' % (idx_name, response.body))except tornado.httpclient.HTTPError:passdef create_index(idx_name):schema = {"settings": {"number_of_shards":   tornado.options.options.num_of_shards,"number_of_replicas": tornado.options.options.num_of_replicas},"refresh": True}body = json.dumps(schema)url = "%s/%s" % (tornado.options.options.es_url, idx_name)try:logging.info('Trying to create index %s' % (url))request = tornado.httpclient.HTTPRequest(url, headers=headers, method="PUT", body=body, request_timeout=240, auth_username=tornado.options.options.username, auth_password=tornado.options.options.password, validate_cert=tornado.options.options.validate_cert)response = tornado.httpclient.HTTPClient().fetch(request)logging.info('Creating index "%s" done   %s' % (idx_name, response.body))except tornado.httpclient.HTTPError:logging.info('Looks like the index exists already')pass@tornado.gen.coroutine
def upload_batch(upload_data_txt):try:request = tornado.httpclient.HTTPRequest(tornado.options.options.es_url + "/_bulk",method="POST",body=upload_data_txt,headers=headers,request_timeout=tornado.options.options.http_upload_timeout,auth_username=tornado.options.options.username, auth_password=tornado.options.options.password, validate_cert=tornado.options.options.validate_cert)response = yield async_http_client.fetch(request)except Exception as ex:logging.error("upload failed, error: %s" % ex)returnresult = json.loads(response.body.decode('utf-8'))res_txt = "OK" if not result['errors'] else "FAILED"took = int(result['took'])logging.info("Upload: %s - upload took: %5dms, total docs uploaded: %7d" % (res_txt, took, upload_data_count))def get_data_for_format(format):split_f = format.split(":")if not split_f:return None, Nonefield_name = split_f[0]field_type = split_f[1]return_val = ''if field_type == 'arr':return_val = []array_len_expr = split_f[2]if '-' in array_len_expr:(min,max) = array_len_expr.split('-')array_len = generate_count(int(min), int(max))else:array_len = int(array_len_expr)single_elem_format = field_name + ':' + format[len(field_name) + len(field_type) + len(array_len_expr) + 3 : ]for i in range(array_len):x = get_data_for_format(single_elem_format)return_val.append(x[1])elif field_type == "bool":return_val = random.choice([True, False])elif field_type == "str":min = 3 if len(split_f) < 3 else int(split_f[2])max = min + 7 if len(split_f) < 4 else int(split_f[3])length = generate_count(min, max)return_val = "".join([random.choice(string.ascii_letters + string.digits) for x in range(length)])elif field_type == "int":min = 0 if len(split_f) < 3 else int(split_f[2])max = min + 100000 if len(split_f) < 4 else int(split_f[3])return_val = generate_count(min, max)elif field_type == "ipv4":return_val = "{0}.{1}.{2}.{3}".format(generate_count(0, 245),generate_count(0, 245),generate_count(0, 245),generate_count(0, 245))elif field_type in ["ts", "tstxt"]:now = int(time.time())per_day = 24 * 60 * 60min = now - 30 * per_day if len(split_f) < 3 else int(split_f[2])max = now + 30 * per_day if len(split_f) < 4 else int(split_f[3])ts = generate_count(min, max)return_val = int(ts * 1000) if field_type == "ts" else datetime.datetime.fromtimestamp(ts).strftime("%Y-%m-%dT%H:%M:%S.000-0000")elif field_type == "words":min = 2 if len(split_f) < 3 else int(split_f[2])max = min + 8 if len(split_f) < 4 else int(split_f[3])count = generate_count(min, max)words = []for _ in range(count):word_len = random.randrange(3, 10)words.append("".join([random.choice(string.ascii_letters + string.digits) for x in range(word_len)]))return_val = " ".join(words)elif field_type == "dict":global _dict_datamin = 2 if len(split_f) < 3 else int(split_f[2])max = min + 8 if len(split_f) < 4 else int(split_f[3])count = generate_count(min, max)return_val = " ".join([random.choice(_dict_data).strip() for _ in range(count)])elif field_type == "text":text = ["text1", "text2", "text3"] if len(split_f) < 3 else split_f[2].split("-")min = 1 if len(split_f) < 4 else int(split_f[3])max = min + 1 if len(split_f) < 5 else int(split_f[4])count = generate_count(min, max)words = []for _ in range(count):words.append(""+random.choice(text))return_val = " ".join(words)return field_name, return_valdef generate_count(min, max):if min == max:return maxelif min > max:return random.randrange(max, min);else:return random.randrange(min, max);def generate_random_doc(format):global id_counterres = {}for f in format:f_key, f_val = get_data_for_format(f)if f_key:res[f_key] = f_valif not tornado.options.options.id_type:return resif tornado.options.options.id_type == 'int':res['_id'] = id_counterid_counter += 1elif tornado.options.options.id_type == 'uuid4':res['_id'] = str(uuid.uuid4())return resdef set_index_refresh(val):params = {"index": {"refresh_interval": val}}body = json.dumps(params)url = "%s/%s/_settings" % (tornado.options.options.es_url, tornado.options.options.index_name)try:request = tornado.httpclient.HTTPRequest(url, headers=headers, method="PUT", body=body, request_timeout=240, auth_username=tornado.options.options.username, auth_password=tornado.options.options.password, validate_cert=tornado.options.options.validate_cert)http_client = tornado.httpclient.HTTPClient()http_client.fetch(request)logging.info('Set index refresh to %s' % val)except Exception as ex:logging.exception(ex)def csv_file_to_json(csvFilePath):data = []# Open a csv reader called DictReaderwith open(csvFilePath, encoding='utf-8') as csvf:csvReader = csv.DictReader(csvf)for rows in csvReader:data.append(rows)return json.dumps(data)@tornado.gen.coroutine
def generate_test_data():global upload_data_countif tornado.options.options.force_init_index:delete_index(tornado.options.options.index_name)create_index(tornado.options.options.index_name)# todo: query what refresh is set to, then restore laterif tornado.options.options.set_refresh:set_index_refresh("-1")if tornado.options.options.out_file:out_file = open(tornado.options.options.out_file, "w")else:out_file = Noneif tornado.options.options.dict_file:global _dict_datawith open(tornado.options.options.dict_file, 'r') as f:_dict_data = f.readlines()logging.info("Loaded %d words from the %s" % (len(_dict_data), tornado.options.options.dict_file))format = tornado.options.options.format.split(',')if not format:logging.error('invalid format')exit(1)ts_start = int(time.time())upload_data_txt = ""if tornado.options.options.data_file:json_array = ""if tornado.options.options.data_file.endswith(".csv"):json_array = json.loads(csv_file_to_json(tornado.options.options.data_file))else:with open(tornado.options.options.data_file, 'r') as f:json_array = json.load(f)logging.info("Loaded documents from the %s", tornado.options.options.data_file)for item in json_array:cmd = {'index': {'_index': tornado.options.options.index_name}}# '_type': tornado.options.options.index_type}}if '_id' in item:cmd['index']['_id'] = item['_id']upload_data_txt += json.dumps(cmd) + "\n"upload_data_txt += json.dumps(item) + "\n"if upload_data_txt:yield upload_batch(upload_data_txt)else:logging.info("Generating %d docs, upload batch size is %d" % (tornado.options.options.count,tornado.options.options.batch_size))for num in range(0, tornado.options.options.count):item = generate_random_doc(format)if out_file:out_file.write("%s\n" % json.dumps(item))cmd = {'index': {'_index': tornado.options.options.index_name}}# '_type': tornado.options.options.index_type}}if '_id' in item:cmd['index']['_id'] = item['_id']upload_data_txt += json.dumps(cmd) + "\n"upload_data_txt += json.dumps(item) + "\n"upload_data_count += 1if upload_data_count % tornado.options.options.batch_size == 0:yield upload_batch(upload_data_txt)upload_data_txt = ""# upload remaining items in `upload_data_txt`if upload_data_txt:yield upload_batch(upload_data_txt)if tornado.options.options.set_refresh:set_index_refresh("1s")if out_file:out_file.close()took_secs = int(time.time() - ts_start)logging.info("Done - total docs uploaded: %d, took %d seconds" % (tornado.options.options.count, took_secs))if __name__ == '__main__':tornado.options.define("es_url", type=str, default='http://localhost:9200', help="URL of your Elasticsearch node")tornado.options.define("index_name", type=str, default='test_data', help="Name of the index to store your messages")tornado.options.define("index_type", type=str, default='test_type', help="Type")tornado.options.define("batch_size", type=int, default=1000, help="Elasticsearch bulk index batch size")tornado.options.define("num_of_shards", type=int, default=2, help="Number of shards for ES index")tornado.options.define("http_upload_timeout", type=int, default=3, help="Timeout in seconds when uploading data")tornado.options.define("count", type=int, default=100000, help="Number of docs to generate")tornado.options.define("format", type=str, default='name:str,age:int,last_updated:ts', help="message format")tornado.options.define("num_of_replicas", type=int, default=0, help="Number of replicas for ES index")tornado.options.define("force_init_index", type=bool, default=False, help="Force deleting and re-initializing the Elasticsearch index")tornado.options.define("set_refresh", type=bool, default=False, help="Set refresh rate to -1 before starting the upload")tornado.options.define("out_file", type=str, default=False, help="If set, write test data to out_file as well.")tornado.options.define("id_type", type=str, default=None, help="Type of 'id' to use for the docs, valid settings are int and uuid4, None is default")tornado.options.define("dict_file", type=str, default=None, help="Name of dictionary file to use")tornado.options.define("data_file", type=str, default=None, help="Name of the documents file to use")tornado.options.define("username", type=str, default=None, help="Username for elasticsearch")tornado.options.define("password", type=str, default=None, help="Password for elasticsearch")tornado.options.define("validate_cert", type=bool, default=True, help="SSL validate_cert for requests. Use false for self-signed certificates.")tornado.options.parse_command_line()tornado.ioloop.IOLoop.instance().run_sync(generate_test_data)

本文由 mdnice 多平台发布

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/16184.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Prometheus中的关键设计

1、标准先行&#xff0c;注重生态 Prometheus 最重要的规范就是指标命名方式&#xff0c;数据格式简单易读。比如&#xff0c;对于应用层面的监控&#xff0c;可以要求必须具备这几个信息。 指标名称 metric Prometheus 内置建立的规范就是叫 metric&#xff08;即 __name__…

正则表达式 —— Awk

Awk awk&#xff1a;文本三剑客之一&#xff0c;是功能最强大的文本工具 awk也是按行来进行操作&#xff0c;对行操作完之后&#xff0c;可以根据指定命令来对行取列 awk的分隔符&#xff0c;默认分隔符是空格或tab键&#xff0c;多个空格会压缩成一个 awk的用法 awk的格式…

学习day53

今天主要是做一个案例 TodoList 组件化编码流程&#xff1a; 1. 拆分静态组件&#xff1a;组件要按照功能点拆分&#xff0c;命名不要与html元素冲突 2.实现动态组件&#xff1a;考虑好数据的存放位置&#xff0c;数据是一个组件在用&#xff0c;还是一些组件在用&#xff1a…

ICMP协议(网际报文控制协议)详解

ICMP协议&#xff08;网际报文控制协议&#xff09;详解 ICMP协议的功能ICMP的报文格式常见的ICMP报文差错报文目的站不可达数据报超时 查询报文回送请求或回答 ICMP协议是一个网络层协议。 一个新搭建好的网络&#xff0c;往往需要先进行一个简单的测试&#xff0c;来验证网络…

线程池 LinkedBlockingQueue、ArrayBlockingQueue、SynchronousQueue 的区别是什么 分别有什么优缺点

LinkedBlockingQueue、ArrayBlockingQueue 和 SynchronousQueue 都是 Java 中常用的阻塞队列实现&#xff0c;在线程池等多线程场景中经常用于保存等待执行的任务。它们之间的区别和各自的优缺点如下&#xff1a; LinkedBlockingQueue: 是一个基于链表的阻塞队列&#xff0c;…

基于libevent的多线程http server (CentOS)

文章目录 一、安装libevent二、安装jsoncpp三、http多线程服务 一、安装libevent 下载编译安装&#xff0c;提前安装好gcc, make sudo su yum -y install wget wget http://www.monkey.org/~provos/libevent-2.0.10-stable.tar.gz tar -zxvf libevent-2.0.10-stable.tar.gz c…

小白到运维工程师自学之路 第六十集 (docker的概述与安装)

一、概述 1、客户&#xff08;老板&#xff09;-产品-开发-测试-运维项目周期不断延后&#xff0c;项目质量差。 随着云计算和DevOps生态圈的蓬勃发展&#xff0c;产生了大量优秀的系统和软件。软件开发人员可以自由选择各种软件应用环境。但同时带来的问题就是需要维护一个非…

React高阶学习(二)

目录 1. 基本概念和语法2. 组件化开发3. 状态管理4. 生命周期钩子5. 条件渲染6. 循环渲染7. 事件处理8. 组件间通信9. 动画效果10. 模块化开发 1. 基本概念和语法 React 是基于 JavaScript 的库&#xff0c;用于构建用户界面。它采用虚拟 DOM 技术&#xff0c;能够高效地渲染页…

spring-authorization-server (1.1.1)自定义认证

前言 注意&#xff1a;我本地没有生成公钥和私钥&#xff0c;所以每次启动项目jwkSource都会重新生成&#xff0c;导致之前认证的token都会失效&#xff0c;具体如何生成私钥和公钥以及怎么配置到授权服务器中&#xff0c;网上有很多方法自行实现即可 之前有个项目用的0.0.3的…

Vue(待续)

概念 一套用于构建用户界面的渐进式JavaScript框架 Vue可以自底向上逐层的应用&#xff1a; 简单应用:只需一个轻量小巧的核心库。 复杂应用:可以引入各式各样的Vue插件。 1.采用组件化模式&#xff0c;提高代码复用率、且让代码更好维护。 2.声明式编码&#xff0c;让编码人员…

【设计模式——学习笔记】23种设计模式——装饰器模式Decorator(原理讲解+应用场景介绍+案例介绍+Java代码实现)

文章目录 生活案例咖啡厅 咖啡定制案例 装饰者模式介绍介绍出场角色 案例实现案例一&#xff08;咖啡厅问题&#xff09;类图代码实现咖啡样式拓展代码实现 案例二类图代码实现 装饰着模式在IO流源码的应用总结什么是父类和子类的一致性如何让自己和被委托对象有一致性 文章说明…

深度学习和神经网络

人工神经网络分为两个阶段&#xff1a; 1 &#xff1a;接收来自其他n个神经元传递过来的信号&#xff0c;这些输入信号通过与相应的权重进行 加权求和传递给下个阶段。&#xff08;预激活阶段&#xff09; 2&#xff1a;把预激活的加权结果传递给激活函数 sum :加权 f:激活…

【Linux】UDP协议

​&#x1f320; 作者&#xff1a;阿亮joy. &#x1f386;专栏&#xff1a;《学会Linux》 &#x1f387; 座右铭&#xff1a;每个优秀的人都有一段沉默的时光&#xff0c;那段时光是付出了很多努力却得不到结果的日子&#xff0c;我们把它叫做扎根 目录 &#x1f449;传输层&a…

初级算法-动态规划

文章目录 爬楼梯题意&#xff1a;解&#xff1a;代码&#xff1a; 买卖股票的最佳时机题意&#xff1a;解&#xff1a;代码&#xff1a; 最大子序和题意&#xff1a;解&#xff1a;代码&#xff1a; 打家劫舍题意&#xff1a;解&#xff1a;代码&#xff1a; 爬楼梯 题意&…

Mysql的锁

加锁的目的 对数据加锁是为了解决事务的隔离性问题&#xff0c;让事务之前相互不影响&#xff0c;每个事务进行操作的时候都必须先加上一把锁&#xff0c;防止其他事务同时操作数据。 事务的属性 &#xff08;ACID&#xff09; 原子性 一致性 隔离性 持久性 事务的隔离级别 锁…

(3)Gymnasium--CartPole的测试基于DQN

1、使用Pytorch基于DQN的实现 1.1 主要参考 (1)推荐pytorch官方的教程 Reinforcement Learning (DQN) Tutorial — PyTorch Tutorials 2.0.1cu117 documentation (2) Pytorch 深度强化学习 – CartPole问题|极客笔记 2.2 pytorch官方的教程原理 待续&#xff0c;这两天时…

bug篇之基于docker安装nacos(2.1.1)使用dubbo连接不上的问题

说明&#xff1a;首先我的nacos安装是2.1.1版本&#xff0c;请注意版本问题。另外启动时用dubbo的话必须先启动服务提供者再启动服务使用者&#xff0c;否则会报错&#xff0c;同时也必须开放三个端口&#xff1a;8848&#xff0c;9848&#xff0c;9849 java.lang.IllegalStat…

Python入门【__init__ 构造方法和 __new__ 方法、类对象、类属性、类方法、静态方法、内存分析实例对象和类对象创建过程(重要)】(十四)

&#x1f44f;作者简介&#xff1a;大家好&#xff0c;我是爱敲代码的小王&#xff0c;CSDN博客博主,Python小白 &#x1f4d5;系列专栏&#xff1a;python入门到实战、Python爬虫开发、Python办公自动化、Python数据分析、Python前后端开发 &#x1f4e7;如果文章知识点有错误…

防止表单的重复提交

思想 打开页面时&#xff0c;生成一个token&#xff0c;将这个token保存到Session中&#xff0c;在表单中提供一个隐藏域&#xff0c;设置其值为每1步中生成的token在处理表单的Servlet中&#xff0c;获取表单隐藏域中的token与Session中的token进行比较&#xff0c;比较完之后…

设计模式——简单工厂模式

1 概述 将创造对象的工作交给一个单独的类来实现 &#xff0c;这个单独的类就是工厂。 2 实现 假设要做一个计算器的需求&#xff0c;通常我们想到的是这样写&#xff1a; package com.example.easyfactory;import java.util.Scanner;public class Demo1 {public static vo…