知名网络工程师benjojo在社交媒体上发了一条观察。
他刚给自己的服务器申请了一张新的TLS证书,不到一分钟,OpenAI的爬虫就来访问他的robots.txt了。13秒。从证书签发到机器人敲门,13秒。
这条消息很快上了Hacker News首页。评论区里吵翻了。
最让我注意的是一条高赞评论:
"Thousands of systems, from Google to script kiddies to OpenAI to Nigerian call scammers to cybersecurity firms, actively watch the certificate transparency logs for exactly this reason. Yawn."
翻译过来就是:几千个系统都在盯着CT日志,从谷歌到脚本小子到OpenAI到诈骗犯,这有什么大惊小怪的?打个哈欠吧。
这条评论引发了一场有趣的争论:一边是"这不是常识吗"的老司机,一边是"等等,这也太激进了吧"的惊讶派。
作为一个AI工程布道者,我觉得这个争论背后藏着一个更有意思的问题:
OpenAI的爬虫凭什么比你自己还先知道你的新网站存在?