博主介绍:CSDN毕设辅导第一人、全网粉丝50W+,csdn特邀作者、博客专家、CSDN新星计划导师、Java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和学生毕业项目实战,高校老师/讲师/同行前辈交流✌
技术范围:SpringBoot、Vue、SSM、HLMT、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、小程序、安卓app、大数据、物联网、机器学习等设计与开发。
主要内容:免费功能设计、开题报告、任务书、中期检查PPT、系统功能实现、代码编写、论文编写和辅导、论文降重、长期答辩答疑辅导、腾讯会议一对一专业讲解辅导答辩、模拟答辩演练、和理解代码逻辑思路。
🍅文末获取源码联系🍅
👇🏻 精彩专栏推荐订阅👇🏻 不然下次找不到哟
2022-2024年最全的计算机软件毕业设计选题大全:1000个热门选题推荐✅
Java项目精品实战案例《100套》
Java微信小程序项目实战《100套》
大数据项目实战《100套》
Python项目实战《100套》
感兴趣的可以先收藏起来,还有大家在毕设选题,项目以及论文编写等相关问题都可以给我留言咨询,希望帮助更多的人
系统介绍:
随着汽车行业的不断发展和市场竞争的日益激烈,汽车企业迫切需要借助大数据技术来实现数据的深度挖掘和分析,以提升产品的竞争力和市场占有率。然而,传统的数据处理方式已经无法满足大数据时代的需求,因此需要开发一款集成了数据采集、处理、分析和可视化的高级平台,以应对复杂多变的市场环境和业务需求,而汽车行业大数据分析系统是一款集成了数据采集、处理、分析和可视化汽车信息展示级平台,旨在推动企业数字化转型、增强竞争力。该系统通过高效的数据仓库技术进行存储和管理,利用先进的分析算法对车辆性能进行深入分析,并具备强大的可视化功能,以图表、报表等形式直观展示分析结果,使非技术人员也能轻松理解和利用大数据带来的价值。
为了实现数据的全面采集和深度分析,本系统采用了爬虫技术从汽车销售平台和厂商官网抓取汽车信息,并利用大数据技术进行存储和管理。主要包括系统首页、个人中心、用户、汽车信息、汽车论坛、系统管理等功能;在Windows10的系统环境下,采用的编程语言为Java和SpringBoot框架,将MySQL作为后台数据库来实现汽车行业大数据分析管理流程中的各种需求。
程序上交给用户进行使用时,需要提供程序的操作流程图,这样便于用户容易理解程序的具体工作步骤,现如今程序的操作流程都有一个大致的标准,即先通过登录页面提交登录数据,通过程序验证正确之后,用户才能在程序功能操作区页面操作对应的功能。
程序操作流程图
首先前端通过Vue和axios发送HTTP请求到后端的登录接口。在后端接收登录请求的Controller会使用`@RequestParam Map params`来接收前端传递的用户参数,用户名和密码。然后后端根据接收到的参数创建一个查询条件封装对象MyBatis的EntityWrapper用于构建查询条件。接着在业务层,调用相应的service方法来查询数据库中是否存在匹配的用户信息。这个查询方法Login()会将前端传递的对象参数传递到后台的DAO层,进行数据库的交互操作。如果存在符合条件的用户,则会返回相关的用户信息。最后在后端控制器中将查询结果封装成响应体,通过`return R.ok().put(“data”, userService.selecView(ew))`将用户信息返回给前端。前端收到响应后,可以通过调用Vue、ElementUI等组件来渲染登录结果,例如显示用户信息或者跳转到相应的页面。
系统架构设计
系统架构设计是软件开发过程中至关重要的一环。首先是模型层(Model),模型层通常对应着数据库或者其他数据源,它负责与数据库进行交互,执行各种数据操作,并将处理后的数据传递给控制器层。模型层的设计应该简洁清晰,尽可能减少与视图和控制器的耦合,以提高代码的可维护性和可重用性。
其次是视图层(View)通常是通过网页、移动应用界面或者其他用户界面来展示数据。视图层与用户交互,接受用户的输入,并将输入传递给控制器层进行处理。在MVC三层架构中,视图层应该尽量保持简单,只负责数据的展示和用户交互,不涉及业务逻辑的处理,以保持视图层的清晰度和可复用性,最后是控制器层(Controller),每个层都有特定的职责和功能,通过分层架构设计,实现代码模块化,为软件开发提供了一种有效的架构模式。系统架构如图4-1所示。
详细视频演示
请文末卡片dd我获取更详细的演示视频
功能截图:
在系统前台首页,调用`$route(newValue)`方法监听路由变化,根据当前的路由地址来确定活动菜单的索引,并且根据路由的哈希部分(即URL的`#`后面的部分)来判断是否需要滚动页面到顶部或者某个特定元素的位置。如果不是首页,会将页面滚动到指定元素处,否则滚动到页面顶部。另外通过`headportrait()`方法用于更新组件渲染点前用户头像。在用户登录后,后端返回了新的用户信息,需要及时更新页面上的用户头像信息。
在上一章中,已经本论文中的汽车行业大数据分析系统进行了全面的设计。接下来第五章对本汽车行业大数据分析系统的实现过程进行说明,包括对该汽车行业大数据分析系统所需的开发环境、运行环境的说明以及对上一章中提到的各种内容的实现。
5.1前台功能实现
当人们打开系统的网址后,首先看到的就是首页界面。在这里,人们能够看到系统的导航条,通过导航条导航进入各功能展示页面进行操作。系统首页界面如图5-1所示:
图5-1 系统首页界面
在注册流程中,用户在Vue前端填写必要信息(如用户名、密码等)并提交。前端将这些信息通过HTTP请求发送到Java后端。后端处理这些信息,检查用户名是否唯一,并将新用户数据存入MySQL数据库。完成后,后端向前端发送注册成功的确认,前端随后通知用户完成注册。这个过程实现了新用户的数据收集、验证和存储。系统注册页面如图5-2所示:
图5-2系统注册页面
汽车信息:在汽车信息页面的输入栏中输入车名或评分进行查询,可以查看到汽车详细信息;并根据需要进行收藏操作;汽车信息页面如图5-3所示:
图5-3汽车信息详细页面
通知公告:在通知公告页面的输入栏中输入标题进行查询,可以查看到通知公告详细信息,并根据需要进行点赞或收藏操作;通知公告页面如图5-4所示:
图5-4通知公告详细页面
个人中心:在个人中心页面可以对修改密码、我的发布、我的收藏进行详细操作;如图5-5所示:
图5-5个人中心界面
5.2管理功能实现
在登录流程中,用户首先在Vue前端界面输入用户名和密码。这些信息通过HTTP请求发送到Java后端。后端接收请求,通过与MySQL数据库交互验证用户凭证。如果认证成功,后端会返回给前端,允许用户访问系统。这个过程涵盖了从用户输入到系统验证和响应的全过程。如图5-6所示。
图5-6 管理员登录界面
管理员进入主页面,主要功能包括对系统首页、个人中心、用户、汽车信息、汽车论坛、系统管理等进行操作。管理员主页面如图5-7所示:
图5-7管理员主界面
用户功能在视图层(view层)进行交互,比如点击“查询、添加或删除”按钮或填写用户信息表单。这些用户信息表单动作被视图层捕获并作为请求发送给相应的控制器层(controller层)。控制器接收到这些请求后,调用服务层(service层)以执行相关的业务逻辑,例如验证输入数据的有效性和与数据库的交互。服务层处理完这些逻辑后,进一步与数据访问对象层(DAO层)交互,后者负责具体的数据操作如查看、修改或删除用户信息,并将操作结果返回给控制器。最终,控制器根据这些结果更新视图层,以便用户功能可以看到最新的信息或相应的操作反馈。如图5-8所示:
图5-8用户界面
汽车信息功能在视图层(view层)进行交互,比如点击“查询、添加、爬取数据或删除”按钮或填写汽车信息表单。这些汽车信息表单动作被视图层捕获并作为请求发送给相应的控制器层(controller层)。控制器接收到这些请求后,调用服务层(service层)以执行相关的业务逻辑,例如验证输入数据的有效性和与数据库的交互。服务层处理完这些逻辑后,进一步与数据访问对象层(DAO层)交互,后者负责具体的数据操作如查看、修改或删除汽车信息,并将操作结果返回给控制器。最终,控制器根据这些结果更新视图层,以便汽车信息功能可以看到最新的信息或相应的操作反馈。如图5-9所示:
图5-9汽车信息界面
管理员点击汽车论坛,在汽车论坛页面输入帖子标题进行查询或删除汽车论坛信息列表;并对汽车论坛详细信息进行查看、修改、查看评论或删除操作;如图5-10所示:
图5-10汽车论坛界面
管理员点击系统管理,在系统简介页面输入标题进行查询系统简介信息列表;并对系统简介详细信息进行查看、修改操作;如图5-11所示:
图5-11系统简介界面
5.3数据信息采集
定义一个Scrapy爬虫类`QichexinxiSpider`,用于爬取指定网站的汽车信息。`name`定义了爬虫的名称,`spiderUrl`指定了目标网站的URL,`start_urls`将目标网站的URL按分号拆分成一个列表,作为爬取的起始URL。`protocol`和`hostname`用于定义协议和主机名,暂时为空。`realtime`用于指定是否实时获取数据,初始化为False。代码如下所示。
class QichexinxiSpider(scrapy.Spider):
name = ‘qichexinxiSpider’
spiderUrl = ‘https://cars.app.autohome.com.cn/carext/recrank/all/getrecranklistpageresult2?from=2&pm=2&pluginversion=11.58.5&model=1&channel=0&pageindex={}&pagesize=20&typeid=1&subranktypeid=1&levelid=0&price=0-9000&date=2024-03’
start_urls = spiderUrl.split(“;”)
protocol = ”
hostname = ”
realtime = False
使用parse方法中进行一些初始化操作和判断条件。首先,通过urlparse函数解析self.spiderUrl得到URL的协议和主机名,并将其分别赋值给self.protocol和self.hostname。 然后,通过platform.system().lower()获取当前操作系统的名称,并将其转换为小写字母,保存在plat变量中。 接着,判断条件如果不是实时爬取(self.realtime为False)并且当前操作系统是Linux或Windows,建立数据库连接,并将连接对象赋值给connect变量。获取数据库的游标对象,并将其赋值给cursor变量,调用table_exists函数检查数据库中是否存在名为’5nw5u40i_Shangpinxinxi ‘的表,如果存在就执行关闭游标和连接,调用temp_data函数,最后返回代码如下所示。
# 列表解析
def parse(self, response):
_url = urlparse(self.spiderUrl)
self.protocol = _url.scheme
self.hostname = _url.netloc
plat = platform.system().lower()
if not self.realtime and (plat == ‘linux’ or plat == ‘windows’):
connect = self.db_connect()
cursor = connect.cursor()
if self.table_exists(cursor, ‘381f1kqr_qichexinxi’) == 1:
cursor.close()
connect.close()
self.temp_data()
return
data = json.loads(response.body)
try:
list = data[“result”][“list”]
使用Scrapy爬虫的回调函数,进行解析详情页面,从response的meta中获取字段对象fileds,最后对其进行赋值和处理。代码如图6-16所示。
try:
fields[“tjriqi”] = emoji.demojize(self.remove_html(str( item.get(“test”, “”)+”2024年03月” )))
except:
pass
try:
fields[“seriesname”] = emoji.demojize(self.remove_html(str( item[“seriesname”] )))
except:
pass
try:
fields[“seriesimage”] = emoji.demojize(self.remove_html(str( item[“seriesimage”] )))
except:
pass
try:
fields[“ranknum”] = int( item[“rankNum”])
except:
pass
try:
fields[“scorevalue”] = float( item[“scorevalue”])
except:
pass
try:
fields[“zdprice”] = float( item[“priceinfo”].split(‘-‘)[0])
except:
pass
try:
fields[“zgprice”] = float( item[“priceinfo”].split(‘-‘)[1].replace(‘万’,”))
except:
pass
try:
5.4数据预处理
在基于大数据的商品推荐系统开发中,数据集处理是至关重要的环节。以下是我详细的数据集处理流程:首先,通过各种渠道搜集宠物商品信息数据集,这可能涉及抓取在线宠物商品信息平台的数据、接收资料,以及整合宠物商品公告等。这些数据应涵盖宠物商品的核心详情,例如价格走势统计、店铺商品统计、宠物食品总数、用户总数、宠物食品、商品品牌统计、适用品种统计等。
接着,获取到数据集后,重要的一环是执行数据清洗和预处理步骤。数据清洗的目的是保证数据质量和完整性,涉及消除重复记录、处理未填充的值、修正不准确的信息等。预处理阶段则涵盖数据的格式统一、标准化和转化操作,以适应后续的分析需求。这一过程中,我利用pandas库来进行数据洞察,并结合Scrapy架构进行高效的数据采集和清洗,从而保证数据的精确度和实用性。为了数据的可靠存储和扩展能力,选用MySQL数据库系统。
为了建立与MySQL数据库的连接,我将使用root用户,其密码设定为123456,目标数据库名为spider5nw5u40i。采用pandas的read_sql方法,可以从数据库中提取所需的数据。具体代码实现代码如下所示。
def pandas_filter(self):
engine = create_engine(‘mysql+pymysql://root:123456@localhost/spider381f1kqr?charset=UTF8MB4’)
df = pd.read_sql(‘select * from qichexinxi limit 50’, con = engine)
首先检查DataFrame对象df是否存在重复的行,使用’df.drop_duplicates()’函数删除对象中重复行。调用’df.isnull()’函数检测对象df’中的缺失值。随后调用’df.dropna()’函数删除具有缺失值的行。’df.fillna(value=’暂无’)’函数将对象df中的缺失值替换为指定的值’暂无’。代码如下所示。
def pandas_filter(self):
engine = create_engine(‘mysql+pymysql://root:123456@localhost/spider381f1kqr?charset=UTF8MB4’)
df = pd.read_sql(‘select * from qichexinxi limit 50’, con = engine)
# 重复数据过滤
df.duplicated()
df.drop_duplicates()
#空数据过滤
df.isnull()
df.dropna()
# 填充空数据
df.fillna(value = ‘暂无’)
# 异常值过滤
# 滤出 大于800 和 小于 100 的
a = np.random.randint(0, 1000, size = 200)
cond = (a=100)
a[cond]
# 过滤正态分布的异常值
b = np.random.randn(100000)
# 3σ过滤异常值,σ即是标准差
cond = np.abs(b) > 3 * 1
b[cond]
# 正态分布数据
df2 = pd.DataFrame(data = np.random.randn(10000,3))
# 3σ过滤异常值,σ即是标准差
cond = (df2 > 3*df2.std()).any(axis = 1)
# 不满⾜条件的⾏索引
index = df2[cond].index
# 根据⾏索引,进⾏数据删除
df2.drop(labels=index,axis = 0)
生成一个包含80个介于0到1000之间的随机整数的数组a,然后定义了一个布尔条件cond,用于筛选满足a在100到800之间的元素。生成一个包含10万个符合标准正态分布的随机数的数组b,定义一个布尔条件cond,用于筛选满足b的绝对值大于3的元素。
创建一个形状为10000行3列的DataFrame df2,其中的数据是符合标准正态分布的随机数。定义一个布尔条件cond,用于筛选在df2中任意一列的值大于三倍标准差的行。该行代码使用索引操作df2[cond].index,获取满足条件cond的行的索引。删除具有指定索引的行,并返回更新后的对象df2。
移除HTML标签,首先,检查html参数是否为None,如果是则返回空字符串。然后使用正则表达式模式匹配HTML标签的正则表达式(]+>),并通过re.sub函数将匹配到的HTML标签替换为空字符串。最后使用strip函数去除字符串两端的空白字符,并返回处理后的结果。代码如下所示。
# 去除多余html标签
def remove_html(self, html):
if html == None:
return ”
pattern = re.compile(r’]+>’, re.S)
return pattern.sub(”, html).strip()
在初始化数据库链接流程时,首要任务是从配置文件中提取必要的连接参数,这些参数涵盖了数据库的种类标识、服务器地址、端口、登录凭证,如用户名和密码。如果数据库名称未明确指定,系统会尝试从self.databaseName属性中寻找。接下来,根据所识别的数据库类型动态选择适配的连接技术。例如,如果确认是MySQL,会选择pyMySQL库进行无缝对接;反之,如果不是MySQL,程序将同样采用pyMySQL库来建立连接。最终,这段代码将执行并返回一个有效的连接对象,记作connect,整个过程逻辑严谨且高效。以下是具体实现的代码段如下所示:
将处理好的数据进行数据存储,定义一个包含插入语句的sql字符串,目标数据库表是Shangpinxinxi,列名包括id、jobname、salary等,从表5nw5u40i_Shangpinxinxi中选择符合条件的数据,将这些数据插入到目标表中,代码段如图6-22所示。
# 数据库连接函数
def db_connect(self):
# 从配置文件中获取数据库连接信息
type = self.settings.get(‘TYPE’, ‘mysql’) # 数据库类型,默认为 MySQL
host = self.settings.get(‘HOST’, ‘localhost’) # 数据库主机地址,默认为 localhost
port = int(self.settings.get(‘PORT’, 3306)) # 数据库连接端口,默认为 3306,需转换为整数类型
user = self.settings.get(‘USER’, ‘root’) # 数据库用户名,默认为 root
password = self.settings.get(‘PASSWORD’, ‘123456’) # 数据库密码,默认为 123456
try:
# 从类属性中获取数据库名
database = self.databaseName
except:
database = self.settings.get(‘DATABASE’, ”) # 从配置文件中获取数据库名,默认为空字符串
# 根据数据库类型选择不同的数据库连接方式
if type == ‘mysql’:
# MySQL 数据库连接方式
connect = pymysql.connect(host=host, port=port, db=database, user=user, passwd=password, charset=’utf8′)
else:
# MSSQL 数据库连接方式
connect = pymssql.connect(host=host, user=user, password=password, database=database)
# 返回数据库连接对象
return connect
5.5数据结果集
通过爬取https://cars.app.autohome.com.cn网站数据集。数据如图5-12,5-13所示
图5-12 数据集
图5-13 数据集
经过数据预处理,将爬取数据存储到数据库中如图5-14所示。
图5-14 数据库存储汽车信息数据
5.6数据可视化分析
管理员进行爬取数据后可以在看板页面查看到评分统计、最低价格统计、汽车信息、最高价格统计、销量统计、汽车信息统计等实时的分析图进行可视化管理;看板大屏选择了Echart作为数据可视化工具,它是一个使用JavaScript实现的开源可视化库,能够无缝集成到Web应用中。Echart的强大之处在于其丰富的图表类型和高度的定制化能力,使得管理人员可以通过直观的图表清晰地把握汽车行业大数据分析的各项运营数据。为了实现对汽车行业大数据分析信息的自动化收集和更新,采用了Apache Spark作为爬虫技术的基础。Spark的分布式计算能力使得系统能够高效地处理大规模数据,无论是从互联网上抓取最新的汽车行业大数据分析信息,还是对内部数据进行ETL(提取、转换、加载)操作,都能够保证数据的实时性和准确性。在大数据分析方面,系统采用了Hadoop框架。Hadoop是一个能够处理大数据集的分布式存储和计算平台,它的核心是HDFS(Hadoop Distributed File System)和MapReduce计算模型。通过Hadoop,我们可以对收集到的大量数据进行存储和分析。看板页面如图5-14所示:
图5-14看板详细页面
管理员进行爬取数据后可以在看板页面查看到汽车价格走势统计、汽车总数、用户总数、汽车品牌统计、适用车型统计等实时的分析图进行可视化管理;看板大屏选择了Echart作为数据可视化工具,它是一个使用JavaScript实现的开源可视化库,能够无缝集成到Java Web应用中。Echart的强大之处在于其丰富的图表类型和高度的定制化能力,使得管理人员可以通过直观的图表清晰地把汽车价格走势统计的各项运营数据展现出来。
如图所示,展示了汽车价格走势,包括了汽车的价格、品牌、车型等信息,帮助管理人员直观地了解汽车市场的价格趋势和销售情况。
图5-15看板详细页面
如图所示,展示了当前系统的汽车信息总数。
图5-16看板详细页面
如图所示,展示了汽车信息的最高价格统计排名。
图5-17看板详细页面
如图所示,展示了汽车品类适用品种统计,统计出各个汽车品类用品的数词云图。
图5-18看板详细页面
可以看出,对于大部分用户在选购汽车时都会选择常见的车型,而对于特定品牌或型号的汽车需求相对均衡。为了实现对汽车价格走势统计的自动化收集和更新,我采用了Apache Spark作为爬虫技术的基础。Spark的分布式计算能力使得系统能够高效地处理大规模数据,无论是从互联网上抓取最新的价格,还是对内部数据进行ETL(提取、转换、加载)操作,都能够保证数据的实时性和准确性。在大数据分析方面,系统采用了Hadoop框架。Hadoop是一个能够处理大数据集的分布式存储和计算平台,它的核心是HDFS(Hadoop Distributed File System)和MapReduce计算模型。通过Hadoop,可以对收集到的大量汽车数据进行存储和分析,包括价格走势、销量统计等,为企业提供数据支持和决策参考。。
论文参考:
1 绪 论
1.1研究背景与意义
1.2系统研究现状
1.3 论文主要工作内容
2 系统关键技术
2.1 java简介
2.2 MySQL数据库
2.3 B/S结构
2.4 SpringBoot框架
2.5 VUE框架
3 系统分析
3.1 系统可行性分析
3.1.1 技术可行性
3.1.2 操作可行性
3.1.3 经济可行性
3.1.4 法律可行性
3.2 系统性能分析
3.3 系统功能分析
3.4 系统流程分析
3.4.1 数据开发流程
3.4.2 用户登录流程
3.4.3 系统操作流程
3.4.4 添加信息流程
3.4.5 修改信息流程
3.4.6 删除信息流程
4 系统设计
4.1 系统概要
4.2 系统结构设计
4.3数据库设计
4.3.1 数据库设计原则
4.3.3 数据库表设计
4.4 系统时序图
4.4.1 注册时序图
4.4.2 登录时序图
4.4.3 管理员修改用户信息时序图
4.4.4 管理员管理系统信息时序图
5 系统的实现
5.1前台功能实现
5.1.1系统首页页面
5.1.2个人中心
5.2后台管理员功能实现
6 系统测试
6.1 测试环境
6.2 测试目的
6.3 测试概述
6.4 单元测试
6.4.1 注册测试
6.4.2 登录测试
6.5 集成测试
结 论
参考文献
致 谢
代码实现:
/**
* 登录相关
*/
@RequestMapping("users")
@RestController
public class UserController{
@Autowired
private UserService userService;
@Autowired
private TokenService tokenService;
/**
* 登录
*/
@IgnoreAuth
@PostMapping(value = "/login")
public R login(String username, String password, String role, HttpServletRequest request) {
UserEntity user = userService.selectOne(new EntityWrapper().eq("username", username));
if(user != null){
if(!user.getRole().equals(role)){
return R.error("权限不正常");
}
if(user==null || !user.getPassword().equals(password)) {
return R.error("账号或密码不正确");
}
String token = tokenService.generateToken(user.getId(),username, "users", user.getRole());
return R.ok().put("token", token);
}else{
return R.error("账号或密码或权限不对");
}
}
/**
* 注册
*/
@IgnoreAuth
@PostMapping(value = "/register")
public R register(@RequestBody UserEntity user){
// ValidatorUtils.validateEntity(user);
if(userService.selectOne(new EntityWrapper().eq("username", user.getUsername())) !=null) {
return R.error("用户已存在");
}
userService.insert(user);
return R.ok();
}
/**
* 退出
*/
@GetMapping(value = "logout")
public R logout(HttpServletRequest request) {
request.getSession().invalidate();
return R.ok("退出成功");
}
/**
* 密码重置
*/
@IgnoreAuth
@RequestMapping(value = "/resetPass")
public R resetPass(String username, HttpServletRequest request){
UserEntity user = userService.selectOne(new EntityWrapper().eq("username", username));
if(user==null) {
return R.error("账号不存在");
}
user.setPassword("123456");
userService.update(user,null);
return R.ok("密码已重置为:123456");
}
/**
* 列表
*/
@RequestMapping("/page")
public R page(@RequestParam Map params,UserEntity user){
EntityWrapper ew = new EntityWrapper();
PageUtils page = userService.queryPage(params, MPUtil.sort(MPUtil.between(MPUtil.allLike(ew, user), params), params));
return R.ok().put("data", page);
}
/**
* 信息
*/
@RequestMapping("/info/{id}")
public R info(@PathVariable("id") String id){
UserEntity user = userService.selectById(id);
return R.ok().put("data", user);
}
/**
* 获取用户的session用户信息
*/
@RequestMapping("/session")
public R getCurrUser(HttpServletRequest request){
Integer id = (Integer)request.getSession().getAttribute("userId");
UserEntity user = userService.selectById(id);
return R.ok().put("data", user);
}
/**
* 保存
*/
@PostMapping("/save")
public R save(@RequestBody UserEntity user){
// ValidatorUtils.validateEntity(user);
if(userService.selectOne(new EntityWrapper().eq("username", user.getUsername())) !=null) {
return R.error("用户已存在");
}
userService.insert(user);
return R.ok();
}
/**
* 修改
*/
@RequestMapping("/update")
public R update(@RequestBody UserEntity user){
// ValidatorUtils.validateEntity(user);
userService.updateById(user);//全部更新
return R.ok();
}
/**
* 删除
*/
@RequestMapping("/delete")
public R delete(@RequestBody Integer[] ids){
userService.deleteBatchIds(Arrays.asList(ids));
return R.ok();
}
}
推荐项目:
基于大数据爬虫+数据可视化的农村产权交易与数据可视化平台
基于SpringBoot+数据可视化+大数据二手电子产品需求分析系统
基于SpringBoot+数据可视化+协同过滤算法的个性化视频推荐系统
基于大数据+爬虫+数据可视化的的亚健康人群数据可视化平台
基于SpringBoot+大数据+爬虫+数据可视化的的媒体社交与可视化平台
基于大数据+爬虫+数据可视化+SpringBoot+Vue的智能孕婴护理管理与可视化平台系统
基于大数据+爬虫+数据可视化+SpringBoot+Vue的虚拟证券交易平台
基于大数据+爬虫技术+数据可视化的国漫推荐系统
基于大数据爬虫+Hadoop+数据可视化+SpringBoo的电影数据分析与可视化平台
基于python+大数据爬虫技术+数据可视化+Spark的电力能耗数据分析与可视化平台
基于SpringBoot+Vue四川自驾游攻略管理系统设计和实现
基于SpringBoot+Vue+安卓APP计算机精品课程学习系统设计和实现
基于Python+大数据城市景观画像可视化系统设计和实现
基于大数据+Hadoop的豆瓣电子图书推荐系统设计和实现
基于微信小程序+Springboot线上租房平台设计和实现-三端
2022-2024年最全的计算机软件毕业设计选题大全
基于Java+SpringBoot+Vue前后端分离手机销售商城系统设计和实现
基于Java+SpringBoot+Vue前后端分离仓库管理系统设计实现
基于SpringBoot+uniapp微信小程序校园点餐平台详细设计和实现
基于Java+SpringBoot+Vue+echarts健身房管理系统设计和实现
基于JavaSpringBoot+Vue+uniapp微信小程序实现鲜花商城购物系统
基于Java+SpringBoot+Vue前后端分离摄影分享网站平台系统
基于Java+SpringBoot+Vue前后端分离餐厅点餐管理系统设计和实现
基于Python热门旅游景点数据分析系统设计与实现
项目案例:
为什么选择我
博主是CSDN毕设辅导博客第一人兼开派祖师爷、博主本身从事开发软件开发、有丰富的编程能力和水平、累积给上千名同学进行辅导、全网累积粉丝超过50W。是CSDN特邀作者、博客专家、新星计划导师、Java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和学生毕业项目实战,高校老师/讲师/同行前辈交流和合作。
源码获取:
大家点赞、收藏、关注、评论啦 、查看👇🏻获取联系方式👇🏻
精彩专栏推荐订阅:在下方专栏👇🏻
2022-2024年最全的计算机软件毕业设计选题大全:1000个热门选题推荐✅
Java项目精品实战案例《100套》
Java微信小程序项目实战《100套》
Python项目实战《100套》