科技新闻-网络爬虫怎么管?最新研究报告在沪发布,强调场景化治
被称为“网络爬虫”的自动数据采集技术该如何管理?11月28日,在CIS 2019网络安全创新大会上发布的一份《数据爬取治理报告》提供了思路。
CIS 2019网络安全创新大会现场
《数据爬取治理报告》是上海数据治理与安全产业发展专业委员会的最新研究成果。报告指出,数据爬取作为数据采集的一种高效实现形式,是国内外诸多互联网企业极为通常甚至赖以生存的手段。但是随着围绕数据自动化技术进行爬取和挖掘行为急剧增多,带来了数据权属、知识产权和商业机密保护、个人信息隐私界限、不正当竞争、计算机信息系统安全等方面巨大争议。尤其是近期在金融、内容、电商等各类场景的数据爬取案件频发,这一“灰色地带”必将被提上数据治理议程,已成为非常紧迫的现实问题。
《报告》根据现实法律环境剖析了数据爬取在访问进入、数据类型和数据使用三个环节可能的法律风险,总结发现数据爬取治理的七大难点,并针对性提出五项治理原则,包括重视场景化治理、消除过度的数据壁垒等具备实操性的建议。最后,《报告》梳理了九个近年国内外较为典型的数据爬取司法判例,旨在给政府相关产业和监管部门、大数据企业和厂商、法律界以及社会公众提供全面客观的认知支持。
上海数据治理与安全产业发展专业委员会今年在上海市经信委和上海市委网信办等部门的指导下,由上海信息服务业行业协会、上海社会科学院互联网研究中心等机构共同发起成立。
上海市经信委软件和信息服务业处处长刘山泉表示,上海智慧城市建设高度重视大数据技术和产业的发展,公共数据开放水平居于国内前列,大数据技术生态初步形成,未来高水平、高质量的数据产业将成为上海信息服务业高质量发展的重要引擎。
对此,科技新闻上海数据治理专委会应在原有工作基础上,重点做好三个方面的工作:第一,科技新闻密切关注全球和国内数据治理发展的新动态;第二,重点关注上海社会经济和产业发展核心领域的数据治理问题;第三,高度关注人工智能、5G、工业互联网、区块链等技术发展中可能带来的数据安全治理问题。
中共上海市委网络安全和信息化委员会网络安全处处长王静认为,数据时代面临的各种安全风险和挑战不断凸显,从公民个人隐私数据被违法收集、科技新闻泄露到关键信息技术设施数据遭受勒索、盗窃,甚至到大国之间的博弈,数据安全已经不单单是网络安全问题,而且成为关系社会稳定发展的全局性问题。