wordpress防止垃圾评论

用wordpress建站若是不做设置和处理的话经常会被注入很多垃圾评论,这里教大家一个简单设置能够屏蔽到一大部分垃圾评论的方法~~ 说方法前,先说一下垃圾评论是怎么自动填入到我们站点的,其实很简单就是找到有特定标识的输入框,然后去注入~~~ 我们处理方式页很简单,就是不能让他随随便便就注入了,要给他增加门槛,正好wordpress对评论可以设置成登录用户才可以评论,所以我们设置一下就可以了,具体怎么设置如下: wordpress版本:4.9.4 进入仪表盘,然后选择“设置”-》“讨论”-》“其他评论设置”-》“户必须注册并登录才可以发表评论”勾选上就可以了。 上面针对的是已经汉化版本的,若是英文版本的,英语好的自己去对应找吧,应用差一点的可以走下面的流程。 进入仪表盘,然后选择“settings”-》“Discussion”-》“Other comment settings”-》“Users must be registered and logged in to comment”勾选上就可以了。

mac下浏览图片

mac下打开图片后不支持左右翻看图片~~这感觉挺不爽的,于是了解了下,发现最简单的方式是选中一个图片后,按下空格打开图片,然后按“上”和“下”就可以翻看图片了,但不好的地方是这种方式非图片的也会被打开预览~~~虽不是那么方便,但直接可以用~~ 一些其他方案参考:https://www.zhihu.com/question/20705417

JavaScript清除所有localStorage和cookie

直接上源码吧 说明:清除localStorage简单管用,但cookie并不一定有用,因为cookie设置和清理都要具体到路径,而上面只清理了根目录和当前目录,若是存在N级目录的情况,还需要自行单独加路径。

微信唤不起支付框

时间:2018/01/26 背景:出口扫码付在支付宝环境支付可以,但到了微信就不可以了,而且地段还很明显,基本上上报反馈的都是广州深圳那边~~~ 分析:首先查询相关的结果是不是返回到了前端,结果发现不论是支付宝还是微信都返回来了,这说明网络没有问题,网络没有问题,还调不起来,那最大的可能就是微信本身除了什么问题?还是由于某种原因js报错了?微信是不是出问题管不了,先看一下是不是由于微信的问题引起了js报错,于是开始利用window.onerror埋点收集看一下是不是js报错了。日志刚收集就断断续续有了如下报错信息“WeixinJSBridge is not defined”,经过查看这个信息大部分并不属于我们项目js报的,而是微信抛出来的~~不着急继续看,不一会儿发现了我们调支付的那行代码也有报这个错误了,这个时候基本上可以确定了,就是这个微信应该注入到webview里面的变量没有注入成功造成了这个问题。但还是很奇怪,为什么只有深圳和广州那边有人报呢?这个不敢断定,但极有可能和我们引入的一个国外监控资源有关,在那边的某些节点这个国外资源访问会受限,造成微信对页面的加载慢影响到了WeixinJSBridge的注入,当然这个只是猜测! 不管了,确定了报错信息,就找解决办法吧,于是找到了下面这么一篇文章浅析”WeixinJSBridge is not defined” 根据教程算是可以解决了,至少能够给一个错误提示了,同时为了避免那个国外资源影响到加载,我们也给去掉了,去掉之后到现在有12个小时了,还未收到问题反馈,不知道是不是好了~~ 其中根据文章中说支付“直接使用JS-SDK文档中的支付代码,不要使用公众号支付文档里面的代码”未尝试,不过若是再做支付会采用JS-SDK的文档了,毕竟之前踩了这个坑,大家也可以考虑用JS-SDK的文档中支付代码。 相关内容直接跳转去看吧,就不做搬运工了。

Mac 以及移动端 抓包工具 Charles 的使用

Charles 是个很牛逼的抓包工具写爬虫的同志们估计就很熟悉了,经常用这个干坏事! 首先,我们去下载Charles破解版http://pan.baidu.com/s/1jHFv0GI 里面带有破解包charles.jar,下载后按照提示安装,安装之后点击右键显示包内容进入Resource文件中的java文件替换charles.jar 。 替换完成后可以打开了,不过这里可能存在问题,提示类似“您需要安装旧 Java SE 6 运行环境才能打开charles”的文案,若是遇到的话,到苹果官网下载javaforosx.dmg并安装,然后在打开应该就可以了。 打开后界面如下: 为了能够抓到mac下的访问,我们要简单做一下这样的设置: 以上步骤都完事,理论上就可以抓到电脑上的代码了。下面看怎么抓到移动端的(必须令电脑和手机在同一个局域网段),这里和fiddler很像,若是对fiddler有了解的应该清除,首先应该安装证书,这里和fiddler有些不一样,直接利用charles提供的下载就可以,点击这里,点击完成之后安装。 这里提示一下,IOS高版本,安装完证书后还要启用一下,启用位置是 设置-》通用-》关于本机-》证书信任设置(最下面),打开后把charles打开就可以了。 然后,要做的就和fiddler一样要看本机的ip地址,本机ip地址查看可以利用终端输入ifconfig,也可以点开屏幕右上角的小苹果-》系统偏好设置-》网络-》选中自己的网络,然后点击左下角偏上一点的高级,随后切换到TCP/IP的tab就可以看到自己的ip地址了,看到ip地址后需要在手机上设置代理了哦! 打开手机,设置—》无线局域,选择和电脑同一网段的网络点击进入设置详情(这里每个手机情况可能不同,如IOS是一个被圈起来的蓝色感叹号),进入后滑动到下面,设置Http代理服务器地址填写你mac上的IP地址端口号填写8888 步骤如下: 填写完毕之后Charles窗口会弹出一个提示这时点击Allow按钮即可到这一步就说明配置成功,你手机访问的网络便可以被Charles捕获到了! 用手机打开浏览器或者打开一个App在Charles窗口上都会捕获到访问地址这时你就可以分析他们的请求数据格式进行数据爬取! 温馨提示:不用代理抓包的时候记得把手机上的代理关掉,省的造成代理设置还在,但charles关了造成无法访问网络的情况。

nodejs抓取网页邮箱

用到的正则匹配还是不太准确,也并未做到在全网去搜索邮箱地址,需要先限定位置,再去匹配,总之还有很多需要处理的问题,废话不多说了,直接上代码吧,以贴吧为例(其中用到的有些工具包需要自行安装):

利用window.onerror捕获并上报Js错误,具体到某一行

之前都是用try{}catch(){}来捕获监听js报错信息,具体文章可以看js报错信息,以及文件加载失败问题的log日志统计方式,但这个监听的报错信息只能到具体的文件,并不能定位到具体哪一行报错了,于是根据业务需求找了一下,发现还真有其他方式可以实现,那就是window.error函数,具体看示例代码。 运行之后报错信息全出来了,由于故意写错的代码直接放到了html里面,所以报错的文件就是当前的html文件,若是引入的js文件,那报错文件就会是引入的js文件了。不错不错,这个真的很好用啊。

mac下delete往后删除

以前用windows都知道backspace是从后往前删除,delete是从前往后删除,用了mac后发现就一个delete键了,没办法往后删除还真不方便,于是查了查,发现原来fn+delete就可以从前往后删除了。

mac下的chrome常用快捷键

打开新的标签页:⌘-T; 打开新的窗口:⌘-N; 打开新的隐身窗口:shift-⌘-N; 查看历史记录:⌘-Y; 下载内容:shift-⌘-J; 开发者工具:option-⌘-I; 查找:⌘-F; 保存页面:⌘-S; 清除浏览器数据:shift-⌘-Delete; 帮助中心:shift-⌘-?; 打开书签管理器:option-⌘-I; 显示隐藏书签栏:option-⌘-B; 查看网页源码:option-⌘-U;

node+express+multer+zbarimg实现图片上传识别二维码

环境windows,这里比较坑的原因是找识别二维码的工具,只知道了python下的zbarimg可以用,而zbarimg又是python2.6x的,找了半天才找到一个支持python2.7x的,不过是windows的exe文件,下载地址在这里 http://download.csdn.net/detail/cranes1224/9788139,需要python2.7的环境(也就是你的电脑需要安装python2.7,python3.x的版本是不行的),下载后在选择安装路径的时候选择安装在python2.7的安装路径,安装完成在python2.7的目录下就可以看到zbarimg.exe,然后cd到对应目录,zbarimg -q E:\python\zbarImg\test.png,test.png二维码就被识别出来显示在窗口了! 备注资源来自GitHub,地址:https://github.com/jacobvalenta/zbar-py27-msi,若是访问GitHub没障碍的话,也可以从GitHub上面下载! python2.7和zbarimg,接着要准备node和express,以及multer,相关安装不熟悉请自行查找对应的参考文章或官方文档! 都准备好了,直接上代码,服务端代码: 上述代码用到的zbarcam.html的代码: 参考文章:http://www.cnblogs.com/chyingp/p/express-multer-file-upload.html

python小代码

为朋友写的简单统计考勤的小代码,分为python3.5.2版本和python2.7.11版本: 2.7.11版本代码如下(需要引用的库自己去引用): python3.5.2版本(需要引用的库自己引用,编码处理这块比2.7还是要方便很多啊)

利用python从大文本文件中获取含有特定字符的行

实现的内容如标题,其实也有一些软件能够实现上述效果,若是利用mac或者是linux直接用vim也可以,这里针对以上都不符合,又不想费太大劲去找其他方法的方法 很简单,先从python官网下载一个python软件,直接安装就可以,这里一般选择最新的就可以了 然后照着下面的代码根据自己要求进行改造,不懂的欢迎交流: 除了摘取,有些时候打不开切成几个小文件也可以,代码如下:

Chrome浏览器所有页面全部崩溃!

简单但不是长远之际的解决方法:–no-sandbox,在软件属性的目标后面添加这个可以以沙箱形式运行。具体来讲就是找到应用图标,右键选择属性,打开的属性中有一个目标,在目标的最后加上–no-sandbox。 长远考虑要找到具体原因,我是用这个解决的:原因是百度的C:\Windows\System32\drivers\bd0001.sys这个文件冲突,直接删掉就可以,删掉的时候可能删不掉,那就进入到安全模式来删除,或者用第三方软件。 相关文章连接:https://www.zhihu.com/question/29305453

搭建私人的git仓库

试用场景:小团队或者个人,私密的内容,不适合放到github上面; 此处默认为centos操作系统! 第一步:安装git $ sudo yum install git 第二步,创建一个git用户,用来运行git服务: $ sudo adduser git 第三步,创建证书登录: 收集所有需要登录的用户的公钥,就是他们自己的id_rsa.pub文件,把所有公钥导入到/home/git/.ssh/authorized_keys文件里,一行一个。 对于需要登录的用户采用ssh-keygen -t rsa -C “youremail@example.com”命令创建(windows需要打开git bash),创建的时候会提示你密钥生成的位置,以及让你生成对应的密码——一般来说,公钥会生成在.ssh路径下; 第四步,初始化仓库: 先选定一个目录作为Git仓库,假定是/srv/sample.git,在/srv目录下输入命令: $ sudo git init –bare sample.git 执行完上面的命令,Git就会创建一个裸仓库,裸仓库没有工作区,因为服务器上的Git仓库纯粹是为了共享,所以不让用户直接登录到服务器上去改工作区,并且服务器上的Git仓库通常都以.git结尾。然后,把owner改为git: $ sudo chown -R git:git sample.git 至此,一个私有的git仓库就创建好了,可以采用如下命令拉取内容了: git clone git@server:/srv/sample.git 但若是我并不是创建新项目,而是想要把老项目放到git上面,~~~那么首先,你上面初始化仓库应该在你原有项目目录初始化,然后添加项目文件: $ git add . 随后,将添加的文件提交到仓库(需要按照要求配置账户,同时也需要把帐号的公钥和上面一样放在/home/git/.ssh/authorized_keys): $ git commit -m “Initial commit” 再然后将本地仓库关联到远端仓库: git remote add origin git@server:/srv/sample.git 然后可以查看一下关联结果: $ git remote -v 发现成功了,就可以把代码提交到仓库了: $ git push origin master

iscroll在安卓高版本(6.0以上)某些机型上滑动卡顿处理

具体现象:在某些安卓机上利用iscroll滑动的列表卡的要死,这些手机的特性一般都是安卓版本比较高!除了在安卓高版本上,chrome模拟器上也没有办法滚动! 这个问题产生的原因,不太确定啊,估摸着简单说一下,是由于chrome的55版本新增了一些属性,具体新增属性可见连接https://developers.google.com/web/updates/2016/11/nic55 就是由于这个新增的pointermove属性导致了采用chrome做webview默认内核的机子出问题了,用了iscorll就卡顿的要死了,解决方法: 简单来说直接用fixed版本的iscroll就可以了,连接见,还标注了修改点:https://github.com/claydotio/iscroll/commit/be4973786cc0ae4402d1b4b74507528d474da681 若是打不开上面连接,或者不想了解改了什么地方,可以试下这个连接,这个是纯js文件:https://raw.githubusercontent.com/claydotio/iscroll/be4973786cc0ae4402d1b4b74507528d474da681/build/iscroll.js 问题解决来源:https://github.com/cubiq/iscroll/issues/1109

MySQL性能调优my.cnf详解

原文地址:https://blog.linuxeye.com/379.html 提供一个MySQL 5.6版本适合在1GB内存VPS上的my.cnf配置文件 [client] port = 3306 socket = /tmp/mysql.sock [mysqld] port = 3306 socket = /tmp/mysql.sock basedir = /usr/local/mysql datadir = /data/mysql pid-file = /data/mysql/mysql.pid user = mysql bind-address = 0.0.0.0 server-id = 1 #表示是本机的序号为1,一般来讲就是master的意思 skip-name-resolve # 禁止MySQL对外部连接进行DNS解析,使用这一选项可以消除MySQL进行DNS解析的时间。但需要注意,如果开启该选项, # 则所有远程主机连接授权都要使用IP地址方式,否则MySQL将无法正常处理连接请求 #skip-networking back_log = 600 # MySQL能有的连接数量。当主要MySQL线程在一个很短时间内得到非常多的连接请求,这就起作用, # 然后主线程花些时间(尽管很短)检查连接并且启动一个新线程。back_log值指出在MySQL暂时停止回答新请求之前的短时间内多少个请求可以被存在堆栈中。 # 如果期望在一个短时间内有很多连接,你需要增加它。也就是说,如果MySQL的连接数据达到max_connections时,新来的请求将会被存在堆栈中, # 以等待某一连接释放资源,该堆栈的数量即back_log,如果等待连接的数量超过back_log,将不被授予连接资源。 # 另外,这值(back_log)限于您的操作系统对到来的TCP/IP连接的侦听队列的大小。 # 你的操作系统在这个队列大小上有它自己的限制(可以检查你的OS文档找出这个变量的最大值),试图设定back_log高于你的操作系统的限制将是无效的。 max_connections = 1000 # MySQL的最大连接数,如果服务器的并发连接请求量比较大,建议调高此值,以增加并行连接数量,当然这建立在机器能支撑的情况下,因为如果连接数越多,介于MySQL会为每个连接提供连接缓冲区,就会开销越多的内存,所以要适当调整该值,不能盲目提高设值。可以过’conn%’通配符查看当前状态的连接数量,以定夺该值的大小。 max_connect_errors = 6000 # 对于同一主机,如果有超出该参数值个数的中断错误连接,则该主机将被禁止连接。如需对该主机进行解禁,执行:FLUSH HOST。 open_files_limit = 65535 # MySQL打开的文件描述符限制,默认最小1024;当open_files_limit没有被配置的时候,比较max_connections*5和ulimit -n的值,哪个大用哪个, # 当open_file_limit被配置的时候,比较open_files_limit和max_connections*5的值,哪个大用哪个。 table_open_cache = 128 # MySQL每打开一个表,都会读入一些数据到table_open_cache缓存中,当MySQL在这个缓存中找不到相应信息时,才会去磁盘上读取。默认值64 # 假定系统有200个并发连接,则需将此参数设置为200*N(N为每个连接所需的文件描述符数目); # 当把table_open_cache设置为很大时,如果系统处理不了那么多文件描述符,那么就会出现客户端失效,连接不上 max_allowed_packet = 4M # 接受的数据包大小;增加该变量的值十分安全,这是因为仅当需要时才会分配额外内存。例如,仅当你发出长查询或MySQLd必须返回大的结果行时MySQLd才会分配更多内存。 # 该变量之所以取较小默认值是一种预防措施,以捕获客户端和服务器之间的错误信息包,并确保不会因偶然使用大的信息包而导致内存溢出。 binlog_cache_size = 1M # 一个事务,在没有提交的时候,产生的日志,记录到Cache中;等到事务提交需要提交的时候,则把日志持久化到磁盘。默认binlog_cache_size大小32K max_heap_table_size = 8M # 定义了用户可以创建的内存表(memory table)的大小。这个值用来计算内存表的最大行数值。这个变量支持动态改变 tmp_table_size = 16M # MySQL的heap(堆积)表缓冲大小。所有联合在一个DML指令内完成,并且大多数联合甚至可以不用临时表即可以完成。 # 大多数临时表是基于内存的(HEAP)表。具有大的记录长度的临时表 (所有列的长度的和)或包含BLOB列的表存储在硬盘上。 # 如果某个内部heap(堆积)表大小超过tmp_table_size,MySQL可以根据需要自动将内存中的heap表改为基于硬盘的MyISAM表。还可以通过设置tmp_table_size选项来增加临时表的大小。也就是说,如果调高该值,MySQL同时将增加heap表的大小,可达到提高联接查询速度的效果 read_buffer_size = 2M # MySQL读入缓冲区大小。对表进行顺序扫描的请求将分配一个读入缓冲区,MySQL会为它分配一段内存缓冲区。read_buffer_size变量控制这一缓冲区的大小。 # 如果对表的顺序扫描请求非常频繁,并且你认为频繁扫描进行得太慢,可以通过增加该变量值以及内存缓冲区大小提高其性能 read_rnd_buffer_size = 8M # MySQL的随机读缓冲区大小。当按任意顺序读取行时(例如,按照排序顺序),将分配一个随机读缓存区。进行排序查询时, # MySQL会首先扫描一遍该缓冲,以避免磁盘搜索,提高查询速度,如果需要排序大量数据,可适当调高该值。但MySQL会为每个客户连接发放该缓冲空间,所以应尽量适当设置该值,以避免内存开销过大 sort_buffer_size = 8M # MySQL执行排序使用的缓冲大小。如果想要增加ORDER BY的速度,首先看是否可以让MySQL使用索引而不是额外的排序阶段。 # 如果不能,可以尝试增加sort_buffer_size变量的大小 join_buffer_size = 8M # 联合查询操作所能使用的缓冲区大小,和sort_buffer_size一样,该参数对应的分配内存也是每连接独享 thread_cache_size = 8 # 这个值(默认8)表示可以重新利用保存在缓存中线程的数量,当断开连接时如果缓存中还有空间,那么客户端的线程将被放到缓存中, # 如果线程重新被请求,那么请求将从缓存中读取,如果缓存中是空的或者是新的请求,那么这个线程将被重新创建,如果有很多新的线程, # 增加这个值可以改善系统性能.通过比较Connections和Threads_created状态的变量,可以看到这个变量的作用。(–>表示要调整的值) # 根据物理内存设置规则如下: # 1G  —> 8 # 2G  —> 16 # 3G  —> 32 # 大于3G  —> 64 query_cache_size = 8M #MySQL的查询缓冲大小(从4.0.1开始,MySQL提供了查询缓冲机制)使用查询缓冲,MySQL将SELECT语句和查询结果存放在缓冲区中, # 今后对于同样的SELECT语句(区分大小写),将直接从缓冲区中读取结果。根据MySQL用户手册,使用查询缓冲最多可以达到238%的效率。 # 通过检查状态值’Qcache_%’,可以知道query_cache_size设置是否合理:如果Qcache_lowmem_prunes的值非常大,则表明经常出现缓冲不够的情况, # 如果Qcache_hits的值也非常大,则表明查询缓冲使用非常频繁,此时需要增加缓冲大小;如果Qcache_hits的值不大,则表明你的查询重复率很低, # 这种情况下使用查询缓冲反而会影响效率,那么可以考虑不用查询缓冲。此外,在SELECT语句中加入SQL_NO_CACHE可以明确表示不使用查询缓冲 query_cache_limit = 2M #指定单个查询能够使用的缓冲区大小,默认1M key_buffer_size = 4M #指定用于索引的缓冲区大小,增加它可得到更好处理的索引(对所有读和多重写),到你能负担得起那样多。如果你使它太大, # 系统将开始换页并且真的变慢了。对于内存在4GB左右的服务器该参数可设置为384M或512M。通过检查状态值Key_read_requests和Key_reads, # 可以知道key_buffer_size设置是否合理。比例key_reads/key_read_requests应该尽可能的低, # 至少是1:100,1:1000更好(上述状态值可以使用SHOW STATUS LIKE ‘key_read%’获得)。注意:该参数值设置的过大反而会是服务器整体效率降低 ft_min_word_len = 4 # 分词词汇最小长度,默认4 transaction_isolation = REPEATABLE-READ # MySQL支持4种事务隔离级别,他们分别是: # READ-UNCOMMITTED, READ-COMMITTED, REPEATABLE-READ, SERIALIZABLE. # 如没有指定,MySQL默认采用的是REPEATABLE-READ,ORACLE默认的是READ-COMMITTED log_bin = mysql-bin binlog_format = mixed expire_logs_days = 30 #超过30天的binlog删除 log_error = /data/mysql/mysql-error.log #错误日志路径 slow_query_log = 1 long_query_time = 1 #慢查询时间 超过1秒则为慢查询 slow_query_log_file = /data/mysql/mysql-slow.log performance_schema = 0 explicit_defaults_for_timestamp #lower_case_table_names = 1 #不区分大小写 skip-external-locking #MySQL选项以避免外部锁定。该选项默认开启 default-storage-engine = InnoDB #默认存储引擎 innodb_file_per_table = 1 # InnoDB为独立表空间模式,每个数据库的每个表都会生成一个数据空间 # 独立表空间优点: # 1.每个表都有自已独立的表空间。 # 2.每个表的数据和索引都会存在自已的表空间中。 # 3.可以实现单表在不同的数据库中移动。 # 4.空间可以回收(除drop table操作处,表空不能自已回收) # 缺点: # 单表增加过大,如超过100G # 结论: # 共享表空间在Insert操作上少有优势。其它都没独立表空间表现好。当启用独立表空间时,请合理调整:innodb_open_files innodb_open_files = 500 # 限制Innodb能打开的表的数据,如果库里的表特别多的情况,请增加这个。这个值默认是300 innodb_buffer_pool_size = 64M # InnoDB使用一个缓冲池来保存索引和原始数据, 不像MyISAM. # 这里你设置越大,你在存取表里面数据时所需要的磁盘I/O越少. # 在一个独立使用的数据库服务器上,你可以设置这个变量到服务器物理内存大小的80% # 不要设置过大,否则,由于物理内存的竞争可能导致操作系统的换页颠簸. # 注意在32位系统上你每个进程可能被限制在 2-3.5G 用户层面内存限制, # 所以不要设置的太高. innodb_write_io_threads = 4 innodb_read_io_threads = 4 # innodb使用后台线程处理数据页上的读写 I/O(输入输出)请求,根据你的 CPU 核数来更改,默认是4 # 注:这两个参数不支持动态改变,需要把该参数加入到my.cnf里,修改完后重启MySQL服务,允许值的范围从 1-64 innodb_thread_concurrency = 0 # 默认设置为 0,表示不限制并发数,这里推荐设置为0,更好去发挥CPU多核处理能力,提高并发量 innodb_purge_threads = 1 # InnoDB中的清除操作是一类定期回收无用数据的操作。在之前的几个版本中,清除操作是主线程的一部分,这意味着运行时它可能会堵塞其它的数据库操作。 # 从MySQL5.5.X版本开始,该操作运行于独立的线程中,并支持更多的并发数。用户可通过设置innodb_purge_threads配置参数来选择清除操作是否使用单 # 独线程,默认情况下参数设置为0(不使用单独线程),设置为 1 时表示使用单独的清除线程。建议为1 innodb_flush_log_at_trx_commit = 2 # 0:如果innodb_flush_log_at_trx_commit的值为0,log buffer每秒就会被刷写日志文件到磁盘,提交事务的时候不做任何操作(执行是由mysql的master thread线程来执行的。 # 主线程中每秒会将重做日志缓冲写入磁盘的重做日志文件(REDO LOG)中。不论事务是否已经提交)默认的日志文件是ib_logfile0,ib_logfile1 # 1:当设为默认值1的时候,每次提交事务的时候,都会将log buffer刷写到日志。 # 2:如果设为2,每次提交事务都会写日志,但并不会执行刷的操作。每秒定时会刷到日志文件。要注意的是,并不能保证100%每秒一定都会刷到磁盘,这要取决于进程的调度。 # 每次事务提交的时候将数据写入事务日志,而这里的写入仅是调用了文件系统的写入操作,而文件系统是有 缓存的,所以这个写入并不能保证数据已经写入到物理磁盘 # 默认值1是为了保证完整的ACID。当然,你可以将这个配置项设为1以外的值来换取更高的性能,但是在系统崩溃的时候,你将会丢失1秒的数据。 # 设为0的话,mysqld进程崩溃的时候,就会丢失最后1秒的事务。设为2,只有在操作系统崩溃或者断电的时候才会丢失最后1秒的数据。InnoDB在做恢复的时候会忽略这个值。 # 总结 # 设为1当然是最安全的,但性能页是最差的(相对其他两个参数而言,但不是不能接受)。如果对数据一致性和完整性要求不高,完全可以设为2,如果只最求性能,例如高并发写的日志服务器,设为0来获得更高性能 innodb_log_buffer_size = 2M # 此参数确定些日志文件所用的内存大小,以M为单位。缓冲区更大能提高性能,但意外的故障将会丢失数据。MySQL开发人员建议设置为1-8M之间 innodb_log_file_size = 32M # 此参数确定数据日志文件的大小,更大的设置可以提高性能,但也会增加恢复故障数据库所需的时间 innodb_log_files_in_group = 3 # 为提高性能,MySQL可以以循环方式将日志文件写到多个文件。推荐设置为3 innodb_max_dirty_pages_pct = 90 # innodb主线程刷新缓存池中的数据,使脏数据比例小于90% innodb_lock_wait_timeout = 120 # InnoDB事务在被回滚之前可以等待一个锁定的超时秒数。InnoDB在它自己的锁定表中自动检测事务死锁并且回滚事务。InnoDB用LOCK TABLES语句注意到锁定设置。默认值是50秒 bulk_insert_buffer_size = 8M # 批量插入缓存大小, 这个参数是针对MyISAM存储引擎来说的。适用于在一次性插入100-1000+条记录时, 提高效率。默认值是8M。可以针对数据量的大小,翻倍增加。 myisam_sort_buffer_size = 8M # MyISAM设置恢复表之时使用的缓冲区的尺寸,当在REPAIR TABLE或用CREATE INDEX创建索引或ALTER TABLE过程中排序 MyISAM索引分配的缓冲区 myisam_max_sort_file_size = 10G # 如果临时文件会变得超过索引,不要使用快速排序索引方法来创建一个索引。注释:这个参数以字节的形式给出 myisam_repair_threads = 1 # 如果该值大于1,在Repair by sorting过程中并行创建MyISAM表索引(每个索引在自己的线程内) interactive_timeout = 28800 # 服务器关闭交互式连接前等待活动的秒数。交互式客户端定义为在mysql_real_connect()中使用CLIENT_INTERACTIVE选项的客户端。默认值:28800秒(8小时) wait_timeout = 28800 # 服务器关闭非交互连接之前等待活动的秒数。在线程启动时,根据全局wait_timeout值或全局interactive_timeout值初始化会话wait_timeout值, # 取决于客户端类型(由mysql_real_connect()的连接选项CLIENT_INTERACTIVE定义)。参数默认值:28800秒(8小时) # MySQL服务器所支持的最大连接数是有上限的,因为每个连接的建立都会消耗内存,因此我们希望客户端在连接到MySQL Server处理完相应的操作后, # 应该断开连接并释放占用的内存。如果你的MySQL Server有大量的闲置连接,他们不仅会白白消耗内存,而且如果连接一直在累加而不断开, # 最终肯定会达到MySQL Server的连接上限数,这会报’too many connections’的错误。对于wait_timeout的值设定,应该根据系统的运行情况来判断。 # 在系统运行一段时间后,可以通过show processlist命令查看当前系统的连接状态,如果发现有大量的sleep状态的连接进程,则说明该参数设置的过大, # 可以进行适当的调整小些。要同时设置interactive_timeout和wait_timeout才会生效。 [mysqldump] quick max_allowed_packet = 16M #服务器发送和接受的最大包长度 […]

javascript发现获取url后面参数用unescape处理后产生了乱码

javascript发现获取url后面参数用unescape处理后产生了乱码,原因很明显是遇到了中文,若是直接处理的话其实很简单,直接采用如下代码便可以了 可若是我拿到的已经是乱码了,无法从原始数据中来获取了,那也不着急,先转回去再来,多套一层而已

python3.x利用qrcode和Pillow(python2.x的PIL的派生版本)批量生成二维码

首先利用pip安装qrcode和Pillow 安装qrcode 安装Pillow 备注:第一次安装这两个pip包的时候,我这边出现了拉取不下来的情况,最后利用vpn翻墙后便装上了,有人说包的源在国外,所以会被墙,若是出现我的情况,试一下翻墙是否管用吧! 随后直接上源码吧

mysql如何让一个存储过程定时执行

原文地址:http://www.myexception.cn/mysql/827875.html mysql怎么让一个存储过程定时执行 查看event是否开启: show variables like ‘%sche%’; 将事件计划开启: set global event_scheduler=1; 关闭事件任务: alter event e_test ON COMPLETION PRESERVE DISABLE; 开户事件任务: alter event e_test ON COMPLETION PRESERVE ENABLE; 简单实例. 创建表 CREATE TABLE test(endtime DATETIME); 创建存储过程test CREATE PROCEDURE test () BEGIN update examinfo SET endtime = now() WHERE id = 14; END; 创建event e_test CREATE EVENT if not exists e_test on schedule every 30 second on completion preserve do call test(); 每隔30秒将执行存储过程test,将当前时间更新到examinfo表中id=14的记录的endtime字段中去 1) 首先来看一个简单的例子来演示每秒插入一条记录到数据表 USE test; CREATE TABLE aaa (timeline TIMESTAMP); CREATE EVENT e_test_insert ON SCHEDULE EVERY 1 SECOND DO INSERT INTO test.aaa VALUES (CURRENT_TIMESTAMP); 等待3秒钟后,再执行查询看看: mysql> SELECT * FROM aaa; +———————+ | timeline            | +———————+ | 2007-07-18 20:44:26 | | 2007-07-18 20:44:27 | | 2007-07-18 20:44:28 | +———————+ 2) 5天后清空test表: CREATE EVENT e_test ON SCHEDULE AT CURRENT_TIMESTAMP + INTERVAL 5 DAY DO TRUNCATE TABLE test.aaa; 3) 2007年7月20日12点整清空test表: CREATE EVENT e_test ON SCHEDULE AT TIMESTAMP ‘2007-07-20 12:00:00’ DO TRUNCATE TABLE test.aaa; 4) 每天定时清空test表: CREATE EVENT e_test ON SCHEDULE EVERY 1 DAY DO TRUNCATE TABLE test.aaa; 5) 5天后开启每天定时清空test表: CREATE EVENT e_test ON SCHEDULE […]