LXM21

安装好anaconda后没有IPython

回复:IPython之前是单独的一个模块,现在集成到Anaconda里了

73.4180 4 0
  • 关注作者
  • 收藏
LXM21

python打印时需注意内容使用的引号

如果需要用两次引号 ,需要单双引号混用,并且成对使用

0.3572 2 0
  • 关注作者
  • 收藏
LXM21

round函数

Python中round()函数 遇到0.5时,取距离原数值最近的一个偶数

63.1855 2 0
  • 关注作者
  • 收藏
LXM21

python取得iris不写路径吗?那怎么取得呢?运行报错了

取得iris不写路径吗?那怎么取得呢?运行报错了这个是网络链接的问题,需要翻墙

59.5169 3 0
  • 关注作者
  • 收藏
詹惠儿

机器学习预处理时教育程度是定量变量,为什么需要做哑变量处理呢

问:机器学习预处理时教育程度是定量变量,为什么需要做哑变量处理呢答:因为教育程度是有序型变量,有序型变量最好也进行哑变量处理,例如这里教育程度原本指的是‘博士’,'硕士','学士',用有序数字表示为3,2,1,也就默认了三个类别是等间距且间距是1,无法准确表达数据的差异性。

55.2054 1 0
  • 关注作者
  • 收藏
詹惠儿

jupyter中如何恢复到改动前的内容?

问:如果我打开了一个jupyter,在里面添加了一些东西或者删除了一些东西,等我关闭这个文件的时候不想去保存它所做的一些修改,还想和刚开始打开一样,要怎么操作呢答:点击‘file’--‘revert to checkpoint’ 这里即可恢复到上一次保存时间。

55.2054 1 0
  • 关注作者
  • 收藏
詹惠儿

sns.scatterplot (date= tips, x= total_ bill" 1 y=“tip”)执行报错

问:为啥上面一条报错,下面一条就可以执行答:sns.scatterplot的参数data拼写错误,将其改为data即可。

55.2054 1 0
  • 关注作者
  • 收藏
詹惠儿

logistic模型中为什么把惩罚系数C设置成1/alpha?不是直接是alpha?

问:logistic模型中为什么把惩罚系数C设置成1/alpha?不是直接是alpha?答:alpha是正则项权重,添加正则项主要为了限制模型的学习能力,alpha越大,越能防止过拟合;参数C是对分类错误的惩罚程度,C越大,越不允许分类错误,越容易出现过拟合,因此alpha和C是成反比关系的。

55.2054 1 0
  • 关注作者
  • 收藏
詹惠儿

pip安装包报错:socket. timeout: The read operation timed out

问:pip安装包报错:socket. timeout: The read operation timed out答:这是由于下载速度慢而引起的超时错误,可通过在安装代码后添加国内镜像源解决此问题:pip install plotly -i https://pypi.tuna.tsinghua.edu.cn/simple

55.2054 1 0
  • 关注作者
  • 收藏
ermutuxia

如何借助python将一个文件夹下的excel文件,根据名字进行分类,将包含特定字符后缀的文件放到指定文件夹下?

比如现在有一个文件夹里的文件如下想把excel文件名字后缀(除了.xlsx部分外)以(6)结尾的名字放到一个指定的文件夹下,比如下面的文件夹下python中写如下代码#导入相关库import os, shutil#获取指定文件夹下面全部文件的名字,并返回一个列表filelist=os.listdir("D://源数据文件夹")#从上面的列表中筛选出符合条件的文件名字,比如名字后缀为(6)的,然后将

0.5698 2 1
  • 关注作者
  • 收藏
马锦涛

如何在爬虫处理异步加载数据?

对于异步加载数据来说,目前处理的方法主要有两种1、通过对异步加载数据的相关js包进行解析,得到相关数据2、利用模拟浏览器的方式进行解析,一般第二种的方法比第一种更加简单

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

​什么是NoSQL?

NoSQL全称Not Only SQL,意即“不仅仅是SQL”,泛指非关系型数据库。传统的关系型数据库使用的是固定模式,并将数据分割到各个表中。然而,对大数据集来说,数据量太大使其难以存放在单一服务器中,此时就需要扩展到多个服务器中。不过,关系型数据库对这种扩展的支持并不够好,因为在查询多个表时,数据可能在不同的服务器中

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

scrapy中pipeline如何使用?

1、在Scrapy中,Item Pipeline是可选组件,默认关闭,要想激活它,只需在配置文件settings.py中启用被注释掉的代码即可。2、# Configure item pipelines# See https://doc.scrapy.org/en/latest/topics/item-pipeline.htmlITEM_PIPELINES = { 'qidian_hot.pip

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

scrapy中pipeline如何处理数据?

清理数据。验证数据的有效性。查重并丢弃。将数据按照自定义的格式存储到文件中。将数据保存到数据库中。

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

使用ItemLoader填充数据?

目前为止我们爬取的数据的字段较少,但是当项目很大,提取的字段数以百计时,数据的提取规则也会越来越多,再加上还要对提取到的数据做转换处理,代码就会变得庞大,维护起来十分困难。为了解决这个问题,Scrapy提供了项目加载器(ItemLoader)这样一个填充容器。通过填充容器,可以配置Item中各个字段的提取规则,并通过函数分析原始数据,最后对Item字段赋值,使用起来非常便捷。2、Item和Item

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

什么是scrapy的item方法?

1、 Item对象是一个简单的容器,用于收集抓取到的数据,其提供了类似于字典(dictionary-like)的API,并具有用于声明可用字段的简单语法。2、优点:类QidianHotItem继承于Scrapy的Item类。name、author、type和form为小说的各个字段名。scrapy.Field()生成一个Field对象,赋给各自的字段。Field对象用于指定每个字段的元数据,

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

scrapy如何封装数据?

们使用Spider从页面中提取数据的方法,并且将提取出来的字段保存于字典中。字典使用虽然方便,但也有它的缺陷:字段名拼写容易出错且无法检测到这些错误。返回的数据类型无法确保一致性。不便于将数据传递给其他组件(如传递给用于数据处理的pipeline组件)。所以我们可以使用item封装数据

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

如何使用Spider提取数据?

Response用来描述一个HTTP响应,它只是一个基类。当下载器下载完网页后,下载器根据HTTP响应头部的Content-Type自动创建Response的子类对象。子类主要有:TextResponseHtmlResponse XmlResponse

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

使用Spider怎样提取数据?

Scrapy提取数据有自己的一套机制,被称作选择器(Selector类),它能够自由“选择”由XPath或CSS表达式指定的HTML文档的某些部分。Scrapy的选择器短小简洁、解析快、准确性高,使用其内置的方法可以快速地定位和提取数据。

0.0000 0 0
  • 关注作者
  • 收藏
马锦涛

Request对象参数有哪些?

参数说明urlHTTP请求的网址methodHTTP请求的方法,如“GET”、“POST”、“PUT”等,默认为“GET”,必须大写。bodyHTTP的请求体,类型为str或unicode。headersHTTP的请求头,字典型。cookies请求的Cookie值,字典型或列表型,可以实现自动登录的效果。encoding请求的编码方式,默认为UTF-8。callback指定回调函数,即确定页面解析

0.0000 0 0
  • 关注作者
  • 收藏

热门用户 换一批

本月PGC排行 总奖励

暂无数据