我们将尽可能得从社交媒体中寻找您的基本可见足迹
首先保证您已经安装了python3.8
及以上版本,然后依次运行如下命令。
git clone https://github.com/aoii103/Sharingan.git
cd sharingan
python3 setup.py install
或通过 pip 安装
pip install sharingan
cd sharingan
python3 -m sharingan blue
我有曾考虑过使用 json
作为站点的配置文件,但后来还是把它写在了 extract.py
中
我们需要做的是在 class Extractor
下添加如下方法,其中 upload
方法中存放对应站点的基础配置
可选配置详见 models.py
@staticmethod
def __example() -> Generator:
"""
1. <-- yield your config first
2. --> then got your datas back
3. <-- finally, yield the extracted data back
"""
T = yield from upload(
**{
"url": "http://xxxx",
}
)
T.name = T.html.pq('title').text()
...
yield T
偶尔我们在编写添加新站点后需要进行测试
就可以用到如下代码,例如我们要测试 twitter
python3 -m sharingan larry --singel=twitter
首先我们运行如下代码
python3 -m sharingan.common
然后它将创建一个叫templates.py
的 python 脚本
我们将其中的代码替换到 extract.py
的相应位置即可
Usage: __main__.py [OPTIONS] NAME
Options:
--name TEXT 您所需要搜索的用户名
--proxy_uri TEXT 在需要翻墙是所使用的代理地址
--no_proxy 所有的请求将进行直连
--save_path TEXT 结果保留路径
--pass_history 跳过历史保存结果,文件保存将标记时间戳
--singel TEXT 在对单个目标进行爬行的时候使用
--debug 开发者模式
--update 将以更新的方式写入原有文件
--workers INTEGER 异步worker数量
--help 打印帮助文档
- 格式化输出
This project is MIT licensed.
如果您觉得这个脚本对您有用,可别忘了 star 哟 🐶。灵感来自 ❤️ sherlock