asa究竟是怎样判断,认为这些节点会与调查“匿名者”呢,方然不太理解。x23us.com
翻阅报告后,他才大概弄清asa的筛查策略,看上去,这些相互之间没什么联系的网站、服务器,基本上都在过去的十二个月里遭遇过非法侵入,不仅如此,在备份服务器的日志里,还可以找到文件系统的操作记录。
这些操作记录,一一列出,全是从系统中删除数据的。
渗透低安全性的网络节点,篡改数据,这种事方然也没少做,目的无非是为了攫取比特币、或得到有用的信息。
这种操作,和窥探网络数据流的灰色行为不一样,是明确的不法行径,当事者肯定会设法掩藏行迹,但要抹除所有痕迹几乎不可能:删文件容易,删日志也不困难,但是在一切篡改完毕后重启相关服务,即便清空了所有记录,热备份系统的定时同步却很棘手,即便手段高超,也几乎没办法稳妥的处理干净。
否则,随便侵入就能为所欲为,那盖亚的互联网络早已瘫痪无数次了。
正因有这些记录,重新组织的才嗅到一丝异样的气息,综合分析后认为,这些陆续被侵入的服务器里,必定有对追踪“匿名者”有价值的数据,因为在人工智能眼中,并没有什么其他的网络监控活动,需要跨越如此多的行业领域,从如此之多的不设防服务器里大量删除敏感信息。
居然和自己想的一样呢,方然先是讶异,然后就有点毛骨悚然:
asa的推理,居然在自己之前。
特定领域里的人工智能,胜过了人类,这在过往的几十年里已发生过很多次,但真的身临其境,体会到智力被ai碾压的滋味,方然还是心生几分感慨。
没时间思考这些,他亲自动手,在可疑节点的文件系统中翻找线索。
即便这很花费时间,但,也没办法像利用asa寻找“匿名者”那样,让人工智能去渗透服务器,至少方然手头的ai还不足以做到这点,于是他逐一侵入这些防备松懈的系统,尝试恢复被删除的文件,结果大部分时间都是徒劳无功,当然这并不出乎意料。
网络服务器,除非有特别的设计,一般在文件删除后,对应的存储空间很快就会被新写入的数据覆盖。
要恢复被覆写的数据,并非绝对不可能,但至少要去现场、接触到存储器硬件后才能想办法,联邦调查局或者国家安全局或许擅长此道,而方然呢,根本就不报这样的希望。
所以他只能一个个服务器的去碰运气,或者说,寄希望于asa的迭代速度。
笼罩盖亚的网络世界里,看上去,与“匿名者”有关的讯息简直多如牛毛,asa每天的报告里都会罗列若干新增的可疑节点,随着神经网络的不断完善,效率的提升,强化了asa的搜索能力,对报上来的数据进行分析,方然有理由认为,这一系统正在接近望见其他调查者的项背。
但,出乎一开始的预料,“匿名者”的线索居然有这么多……
这似乎不太对劲。