Tag: curl

wget下载link.php

我无法找到一种方法来使用wget从使用php指向下载的链接下载文件。 例如,如果我想写一个脚本来下载…说superantispyware每天都是便携式的,所以我一直都有一个新的副本(只有你运行Windows时才有用,我不会,但我离题了)下载链接看起来喜欢 : http://www.superantispyware.com/sasportable.php 我不想要PHP文件,我想要它链接到的文件。 在浏览器中,我假设一些服务器端魔术恰好使这项工作成功。 我可以使用咒语来模仿浏览器的function吗? 可以curl吗?

curl命令因超时而失败

我正在尝试在我的ubuntu框上运行以下命令: curl https://install.meteor.com/ | sh 它超时了。 我试图ping地址,但它只是坐在那里。 我也尝试ping google.com,但它只是坐在那里。 我认为这不是DNS问题……这是ping的输出: me@mydev:/var/www/wtracks$ ping google.com PING google.com (74.125.226.134) 56(84) bytes of data. ^C — google.com ping statistics — 1 packets transmitted, 0 received, 100% packet loss, time 0ms me@mydev:/var/www/wtracks$ ping 74.125.226.134 PING 74.125.226.134 (74.125.226.134) 56(84) bytes of data. 到目前为止我尝试过的:我已经在chrome中打开了我的代理设置(我现在正在使用它来冲浪…)并确保我在命令行中运行以下命令我试图运行curl: export http_proxy=”http://myproxyservername.net:8080″ 然后我重新尝试了ping和curl,但都没有工作。 还有其他建议吗? 谢谢。

如何使用wget / curl从网站下载表格?

http://www.dgda.gov.bd/index.php/manufacturers/allopathic 我想从这个网站下载该表。

tun0没有互联网访问权限

我在tun0(Ubuntu 16 / EC2)上使用OpenVPN,我可以使用systemctl start openvpn@Ireland (PIA的爱尔兰群集)成功启动它,但是界面没有Internet访问权限: curl –interface tun0 -vv http://icanhazip.com/plain * Trying 104.20.17.242… * Local Interface tun0 is ip 10.34.10.6 using address family 2 * Local port: 0 * Trying 2400:cb00:2048:1::6814:10f2… * Trying 2400:cb00:2048:1::6814:11f2… * Trying 2400:cb00:2048:1::6814:10f2… * Trying 2400:cb00:2048:1::6814:11f2… 这是我的/etc/openvpn/Ireland.conf: client dev tun proto udp remote ireland.privateinternetaccess.com 1198 resolv-retry infinite nobind persist-key […]

** curl **不适用于Ubuntu 18.04 LTS

我无法使用curl从网上获取内容。 我试着把它放在下面的输出中。 某些软件包无法安装。 这可能意味着您已经请求了一个不可能的情况,或者如果您正在使用不稳定的分发,那么某些必需的包尚未创建或已被移出Incoming。 以下信息可能有助于解决此问题: 以下包具有未满足的依赖项。 curl:取决于:libcurl4(= 7.58.0-2ubuntu3)但它不会被安装E:无法纠正问题,你已经破坏了包裹。 我已经检查了包含sudo apt-mark showheld和dpkg -l | grep ^h dpkg -l | grep ^h希望得到一个包含列表的列表,但我没有得到任何结果。 此外,当我尝试安装libcurl4它几乎会破坏我的系统,因为它试图删除下面的这些包。 libcurl3 mongodb-enterprise mongodb-enterprise-server mongodb-enterprise-tools msodbcsql msodbcsql17 mssql-tools php7.1-curl r-base r-base-core r-base-dev r-base-html r-cran-boot r-cran -class r-cran-codetools r-cran-foreign r-cran-getopt r-cran-kernsmooth r-cran-lattice r-cran-littler r-cran-mass r-cran-matrix r-cran-mgcv r-cran -nlme r-cran-nnet r-cran-rpart r-cran-spatial r-cran-survival r-recommended slack-desktop virtualbox-5.2 编辑 […]

找不到/etc/pki/tls/certs/ca-bundle.crt

我正在使用curl -L https://get.rvm.io | bash -s stable curl -L https://get.rvm.io | bash -s stable可以安装RVM。 我说错了 CAfile: /etc/pki/tls/certs/ca-bundle.crt CApath: none 我在互联网上搜索了一下,发现更改/etc/pki/tls/certs/ca-bundle.crt的权限应该可以完成工作。 但是我的系统中缺少整个/etc/pki目录。 我该如何解决?

在Ubuntu中是否可以使用Flashgot进行multithreadingcURL?

我在这里发现有一个cURL下载器的multithreading版本。 如何安装它可以和Flashgot一起使用? 我不是在寻找其他multithreading下载器,我已经在我的flashgot列表中有Axel,Aria2,cURL,uGet和Wget。 我甚至有VLC在那里打开youtube在vlc,如果它打击我的幻想:) …我只是想测试一个新选项,这就是全部。

如何创建使用关键字和过滤内容的CLI Web Spider?

我想在弃用的(过时的)文学论坛e-bane.net中找到我的文章。 一些论坛模块被禁用,我无法获得作者的文章列表。 此外,该网站未被搜索引擎编入索引,如Google,Yndex等。 找到我所有文章的唯一方法是打开网站的存档页面 (图1)。 然后我必须选择某些年份和月份 – 例如2013年1月 (图1)。 然后我必须检查每篇文章(图2)是否在开头写了我的昵称 – pa4080 (图3)。 但是有几千篇文章。 我已经阅读了以下几个主题,但没有一个解决方案符合我的需求: Ubuntu的网络蜘蛛 如何在Linux系统上编写Web蜘蛛 从站点获取URL列表 我会发布自己的解决方案 。 但对我来说很有趣: 有没有更优雅的方法来解决这个任务?

如何在Ubuntu 14.04中修复Curl的CA证书问题?

我使用的是Ubuntu 14.04。 当我使用curl时,我收到以下错误: curl: (77) error setting certificate verify locations: CAfile: /etc/pki/tls/certs/ca-bundle.crt CApath: 从我从谷歌搜索收集的内容来看,它正在寻找的CAfile位置对于Ubuntu来说是不正确的(并且它在我的计算机上不存在),/ etc / ss / cert / ca-certificates.crt是正确的位置。 大多数解决方案涉及将环境变量CURL_CA_BUNDLE设置为正确的位置,或将cacert=/etc/ssl/certs/ca-certificates.crt到我的主目录中的(新创建的) .curlrc文件中。 我试过了两个,都没有完全解决问题。 curl正在找到这个位置,但它仍然不起作用,给出错误: curl: (60) SSL certificate problem: self signed certificate in certificate chain 我还尝试在Ubuntu中卸载并重新安装curl,并使用$ sudo update-ca-certificates –fresh更新我的CA证书,这更新了证书,但仍然没有使错误60消失。 我对CA证书并不了解,并且怀疑我过去是故意添加了一些自签名证书。 也许是偶然的,我不知道。 有谁知道如何解决这一问题? 有没有办法真正重新开始我的所有证书? 或者有人甚至知道我如何确定这个自签名证书的位置,然后如何删除它? PS:我不想使用-k(又名–insecure)标志。 我希望安全地工作。

使用curl命令下载ZIP文件

如何使用curl命令下载ZIP文件? 我试过curl -sO ,但是发生了错误。 我想从以下地址下载zip文件: http : //github.com/ziyaddin/xampp/archive/master.zip 但不能。 我必须输入什么?