首页 新闻 搜索 专区 学院
当前位置:博问标签/python/未解决/ 已解决
3
回答数

待解决问题 10 liunx中如何判断一个文件是否正在被写

问题:我现在想要知道一个文件在linux中是否正在被写,从而我可以监控这个文件,不断读取最新被写入的内容。 我使用python的os.path.getctime(filename),获取文件的创建时间
1
回答数

待解决问题 关于mac的django问题

macbookair升级到catalina后,python的版本一直默认2.7。修改~/.bashprofile以及~/.bashrc文件后会在终端默认为3.8版本,但是安装django时会提示 "T
0
回答数

待解决问题 5 python中使用screen,有时候不能生效

写了一个python脚本,把它放到/etc/rc.local中让其开机自启,python脚本中使用subprocess模块进行发送命令,因为要起一个服务,所以使用screen进行监控,但是有时候重启后
3
回答数

待解决问题 10 正则匹配规则问题

本地环境为python3.7,今天偶然发现一个正则匹配问题,不清楚是什么原因造成,具体如下: 首先在python环境中运行 import re string=‘token:124312abc1b2a3
4
回答数

待解决问题 30 如何做到不重复读文件,或者记录文件读的位置信息?

我现在在使用python写一个读文件的程序,使用with open(),逐行读取,但是有个问题,当我读的文件列表里有多个文件,而我读到一半时,读文件的程序突然挂掉了,那么当我想要重新运行读文件的程序时
2
回答数

待解决问题 为什么返回的数据只有第一个,不科学啊,大佬看看!

import requests from bs4 import BeautifulSoup def get_movie(): headers = {'user-agent':'Mozilla/5.0
4
回答数

待解决问题 20 python的读取文件

我现在想要使用open()方法读取一个文件夹的文件,读文件的同时,可能这个文件还在被其他程序正在写入,而且写文件的程序写了一段时间,就会重新建立一个新的文件再写入,那么我的open()怎么能在上一份文
1
回答数

待解决问题 10 使用kafka收集日志和存储

需求:通过kafka把读到日志文件统一收集放在一个地方 问题: 1,现在在一台机器上可能会同时产生多份不同路径下的日志文件,我怎么保证能同时读到,并且读完了继续保持读文件状态(因为日志文件可能会随时产
0
回答数

待解决问题 用pyqt5实现流程图的绘制

最近需要用pyqt开发一个能够绘制流程图的桌面应用,有用过pyqt5绘制流程图的吗
2
回答数

待解决问题 python对excel进行操作

我在用python对excel操作过程中,对已编写的文件中进行数据修改,中间遇见几个问题,有关注这方面的大佬帮忙解答一下。 1、python改写前先进行文件复制,然后对文件进行修改,但是修改完的文件不
0
回答数

待解决问题 5 利用python或者其他软件判断一个坐标点是否在不规则区域内

-- coding: UTF-8 -- def isRayIntersectsSegment(poi, s_poi, e_poi): # [x,y] [lng,lat] # 输入:判断点,边起点,边终
0
回答数

待解决问题 Python Cuda 运行报错:numba.cuda.cudadrv.error.NvvmSupportError: GPU compute capability 2.1 is not supported (requires >=3.0)

代码如下 pthon ``` from numba import cuda 添加模拟器 SET NUMBA_ENABLE_CUDASIM=1 def cpu_print(): print("print
2
回答数

待解决问题 Python 发送带附件的邮件,有些文件能发送有些文件发送不了?

代码都是一样的。 我做的测试: 同一个收件箱,不同的两个Excel文件 A文件发送3遍,接收到的时候收件箱没有附件 B文件发送3遍,接收到的时候收件箱都有附件 把A、B的文件名字对换,结果还是原来的B
1
回答数

待解决问题 30 xml数据操作

怎么将lxml.etree._Element变成lxml.etree.ElementTree.Element 或者是两个xml文件,要将他们的内容合并,有没有什么比较好的方法
1
回答数

待解决问题 pyhive查询数据缓存式处理 方式

我这边需要将hive表中的数据全部导出,但是担心数据过多,导致内存不足,无法处理,因此需要采用缓存式处理方式,如先从hive中查询出1000条数据,写入到文件中,然后再查询出1000条数据,再写入,依