京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据技术如何处理大学校园IT安全问题
大学高校内有一些复杂的IT基础设施,以及来自自带设备BYOD的安全风险,是高校信息中心人员无法规避的话题。世界各地的大学首席安全官员在系统日志挖掘方面,正在越来越多地转向大数据分析技术,以此来提高他们在安全基础上的应对技术。
为一所大学提供信息安全服务工作是一件不容易的任务。高校分布面积庞大,以及不断发展的分布式人口、个人设备(BYOD)……面对这样一个严峻挑战,一些大学正在转向使用大数据分析技术,以此来解决问题。
大学校园美丽风景的背后,暗藏着大量IT安全风险与隐患
得克萨斯大学奥斯汀分校,是德州大学系统的标志型学校,他们的信息安全挑战就是一个好例子。在其350英亩的校园内,拥有近200幢楼宇,全部由10个千兆光纤骨干网相连。在任何一个时间,高达120,000单个设备从服务器到交换机,无线接入点,台式电脑,笔记本电脑,平板电脑,智能手机和安全摄像机等都可以连接到其网络。
“我们与其他大学一样,有数以万计的用户以及更大的联网设备。”得克萨斯大学奥斯汀分校的首席信息安全官(CISO)比斯利介绍说,“我们有一个固定的需要,来确定用户帐户的行为异常,检测、定位和实时监测系统受损,以及多个记录环境的相关活动,以此更充分地了解大学校内用户的IT使用情况。”
得克萨斯大学奥斯汀分校信息安全办公室(ISO)的分析师主要依靠入侵检测/防御系统(IDS / IPS),定制开发的软件工具,来监察相关用户行为。但这些方法缓慢、笨重,此外,它没有充分挖掘出数据的一些价值属性。“我们希望插入到许多不同的服务器和设备下游,与我们的网络信息与实际系统的日志数据关联,来测试未来可能产生的网络攻击。”比斯利解释说,“我们不希望使用一个笨重的SIEM安全信息和事件管理产品,我们需要一个更灵活的系统,以此可以适应我们独特的需求。”
康涅狄格大学的首席信息安全官贾森也面临着类似问题。他说:“我们需要做数据的类型挖掘,另外一个就是使用不同的工具来分析。”他说,“但这只能做一个或两个技术分析。”
大数据帮助分析高校日志数据
世界各地有超过275所大学像得克萨斯大学奥斯汀分校和康涅狄格大学的类似情况。“高校有一些世界上最复杂的IT基础设施,这使得它们非常脆弱。” 某大学安全总监马克?西沃德说,“BYOD的发展在不断演变并形成安全威胁。Splunk软件可以帮助收集大量的数据,并帮助用户检测未知的和持久的威胁。”
高校用户越来越多的IT使用行为及产生的数据,需要利用大数据分析技术来提前应对安全风险
作为实时业务智能软件供应商,Splunk从本质上讲是一个大的数据索引引擎。它负责索引来自网站,应用程序,服务器,网络和移动设备产生的数据。Splunk是一个不断发展的领域,技术人员正在寻找在100线长和非结构化的Java跟踪。他们希望这一平台能够像谷歌这样灵活搜索数据。
康涅狄格大学组成一个不同类型数据的集中分析,CIO利用大数据分析来提出问题,解决问题,并显而易见取得了成绩。该技术已经帮助网络中心办公室提高了在大学范围的基础上实施反病毒的能力。在一个企业,各类日志可以集中管理,它可能是微不足道的一项工作。但在高校这里,学校CIO面对的是一个流动人口,这是非常困难的事。
但使用日志数据,大学的工作人员能够以审计环境,并观察到故障点的位置,然后生成报告,并帮助他们升级或安装防病毒解决方案。康涅狄格大学的系统安全防护能力得到了提升。技术团队用大数据分析技术,衡量八个不同加权值安全指标和反病毒程度、OS修补程序。这些实践应用到企业中,在处理与利用经验上,技术人员可以得到宝贵数据分析经验。通过大数据的分析,可以发现背后巨大的效益,CIO可以从一个单一的数据资源库中,使用IT技术来为企业决策提供数据分析能力。
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15