- docker镜像报错ERROR: failed to solve: DeadlineExceeded:
柠檬编程工作室
Dockerdockereureka容器
--------------------1|#基于NVIDIACUDA镜像,确保GPU支持2|>>>FROMnvidia/cuda:12.6.2-cudnn-devel-ubuntu20.043|4|#设置工作目录--------------------ERROR:failedtosolve:DeadlineExceeded:DeadlineExceeded:DeadlineExceeded:nv
- 实验踩坑 flash_attn_2_cuda undifiend symol
崩溃李
linux
报错RuntimeError:Failedtoimporttransformers.models.llama.modeling_llamabecauseofthefollowingerror(lookuptoseeitstraceback):…/lib/python3.10/site-packages/flash_attn_2_cuda.cpython-310-x86_64-linux-gnu.s
- LLaVA微调debug:ImportError: xxx/flash_attn_2_cuda.cpython-310-x86_64-linux-gnu.so: undefined symbol:
同屿Firmirin
大模型debug笔记linux运维服务器深度学习语言模型
完整报错信息:ImportError:/home/linjl/anaconda3/envs/sd/lib/python3.10/site-packages/flash_attn_2_cuda.cpython-310-x86_64-linux-gnu.so:undefinedsymbol:_ZN3c105ErrorC2ENS_14SourceLocationENSt7__cxx1112basic_s
- 从Nvidia切换到华为云昇腾芯片的入门技巧
sunrise_ccx
华为云人工智能
Nvidia太贵,尝试使用国产的芯片做AI。等价命令Nvidia昇腾说明nvidia-sminpu-smiinfo查看机器上显卡信息npu-smiinfo-tusages-i查看显卡使用率CUDA_VISIBLE_DEVICESASCEND_RT_VISIBLE_DEVICES指定要使用的显卡【未完待续】
- Python&aconda系列:CUDA+Anaconda的安装以及 Conda实用命令
坦笑&&life
#pythonpythonconda开发语言
这里写目录标题一.深度学习环境配置:CUDA+Anaconda的安装3.1.1CUDA简介3.1.2查看电脑显卡型号是否支持CUDA的安装3.1.3查看电脑显卡的驱动版本3.1.4根据显卡驱动版本下载支持的CUDA版本3.1.5检查CUDA是否安装成功3.1.6安装Anaconda3.1.7检查Anaconda是否安装成功3.1.8配置Anaconda的安装包下载源二.Conda实用命令conda
- 【TensorRT】引用了NvInferRuntimeCommon.h仍然报找不到ILogger
TechBoL
人工智能
如果编译遇到error:‘ILogger’innamespace‘nvinfer1’doesnotnameatype或者error:‘nvinfer1::ILogger’hasnotbeendeclared可能需要显式的添加#include"NvInfer.h"即只includeNvInferRuntimeCommon.h是不够的。
- pytorch单机多卡训练_数据并行DataParallel
Major Tom _
pytorch人工智能python
1.单机多卡概述单卡多级的模型训练,即并行训练,可分为数据并行和模型并行两种.数据并行是指,多张GPUs使用相同的模型副本,但采用不同batch的数据进行训练.模型并行是指,多张GPUs使用同一batch的数据,分别训练模型的不同部分.2.DataParallel源码2.1需要传入的参数module(Module):被并行运算的模型device_ids=None:CUDAdevicesoutput
- nvdia triton server运行pt文件
滑稽的柴犬
神经网络机器学习python
tritonserver默认都是tensorrt推理。但也会出现有操作不支持,导致无法转模型为engine的情况。可以选择直接运行pytorch的pt文件,以下为操作步骤。1.pytorch后端环境编译步骤原理是使用pytorchC++API运行pt文件模型。安装依赖项apt-getinstallpatchelfrapidjson-devpython3-dev构建NGC的PyTorch容器。例如,
- Tesla V100驱动安装
郭宝才
linux服务器运维
确认操作系统kernel版本,参考链接:https://docs.nvidia.com/cuda/archive/12.2.0/cuda-installation-guide-linux/index.html安装依赖yuminstall-ygccgcc-c++rdma-coredkmselfutils-libelf-develntpyuminstall-ykernel-devel-$(uname-
- 训练入口+保存模型
如若123
深度学习python人工智能
importargparsefromtorch.utils.dataimportDataLoaderfromtesting.testingimport*frommodels.model_coupled_v1importUnetfromdata.data_loadimport*importglobfromcollectionsimportOrderedDictdevice="cuda:0"iftor
- NVIDIA-TensorRT-Python推理
呆呆珝
推理框架python人工智能开发语言
1,前言NVIDIATensorRT进行模型推理的Python实现。TensorRT是一个高性能的深度学习推理优化器和运行时,它能够为深度学习模型提供低延迟和高吞吐量的推理能力。(由于官方文档的使用还是比较简单,也可能自己很菜,参考了别人的文档和自己摸索,写出来这个可以使用的API)2.Python-API推理step1:导入基本库(环境自行配置)#导入TensorRT库importtensorr
- 花费上万元的 RTX4090,普通人真的需要它的性能吗?
显卡
众所周知,RTX4090是当之无愧的显卡界卡皇。但对于普通人来说,花费上万元甚至更多去拥有它,真的值得吗?01RTX4090的性能规格它拥有超多的CUDA核心,数量高达16384个。这就好比有一支庞大的计算大军,能够快速处理各种复杂的图形计算任务。无论是玩高画质的3A大作游戏,还是进行专业的图形设计、视频编辑等工作,都能轻松应对。再说说它的显存,容量达到了惊人的24GB。这就像一个巨大的仓库,可以
- Windows 下Mamba2 环境安装问题记录及解决方法(causal_conv1d=1.4.0,mamba_ssm=2.2.2)
yyywxk
#Python模块有关问题mambapythonwindowsmamba2
导航安装教程导航Mamba及Vim安装问题参看本人博客:Mamba环境安装踩坑问题汇总及解决方法(初版)Linux下Mamba及Vim安装问题参看本人博客:Mamba环境安装踩坑问题汇总及解决方法(重置版)Windows下Mamba的安装参看本人博客:Window下Mamba环境安装踩坑问题汇总及解决方法(无需绕过selective_scan_cuda)Linux下Vim安装问题参看本人博客:Li
- Linux 下 Vim 环境安装踩坑问题汇总及解决方法(重置版)
yyywxk
#Python模块有关问题linuxvimmamba
导航安装教程导航Mamba及Vim安装问题参看本人博客:Mamba环境安装踩坑问题汇总及解决方法(初版)Linux下Mamba及Vim安装问题参看本人博客:Mamba环境安装踩坑问题汇总及解决方法(重置版)Windows下Mamba的安装参看本人博客:Window下Mamba环境安装踩坑问题汇总及解决方法(无需绕过selective_scan_cuda)Linux下Vim安装问题参看本人博客:Li
- GPU 集群和分布式计算
AI天才研究院
计算AI大模型企业级应用开发实战大数据AI人工智能javapythonjavascriptkotlingolang架构人工智能大厂程序员硅基计算碳基计算认知计算生物计算深度学习神经网络大数据AIGCAGILLM系统架构设计软件哲学Agent程序员实现财富自由
《GPU集群和分布式计算》关键词:GPU集群、分布式计算、CUDA、OpenACC、OpenMP、性能优化、故障处理、案例分析摘要:本文详细探讨了GPU集群和分布式计算的基本概念、架构、编程模型以及应用场景。通过剖析GPU集群在多个领域的实际应用,探讨了性能优化和故障处理的方法,并提供了若干案例以加深理解。文章旨在为读者提供一个全面而深入的GPU集群和分布式计算的知识框架。《GPU集群和分布式计算
- error: [Errno 2] No such file or directory: ‘:/usr/local/cuda-12.1/bin/nvcc‘: ‘:/usr/local/cuda-12.1
鲤鱼不懂
bugcuda
一背景最近在服务器使用cuda报错,昨天使用还可以,今日就出问题,在此记录解决方案。二报错信息error:[Errno2]Nosuchfileordirectory:':/usr/local/cuda-12.1/bin/nvcc':':/usr/local/cuda-12.1/bin/nvcc'三解决方案终端输入以下命令exportCUDA_HOME=/usr/local/cuda-12.1
- 导出 YOLOv11 模型的详细步骤和说明
old_power
计算机视觉YOLO人工智能计算机视觉
以下是关于如何导出YOLOv11模型的详细步骤和说明:1.导出YOLOv11模型的基本步骤YOLOv11模型可以通过Ultralytics提供的接口轻松导出为多种格式,如ONNX、TensorRT、CoreML等。以下是导出模型的基本步骤:1.1安装Ultralytics库首先,确保已安装Ultralytics库:pipinstallultralytics1.2加载模型并导出使用Python代码加
- 【CUDA-BEVFusion】tool/build_trt_engine.sh 文件解读
old_power
计算机视觉计算机视觉深度学习
build_trt_engine.sh#configuretheenvironment.tool/environment.shif["$ConfigurationStatus"!="Success"];thenecho"Exitduetoconfigurefailure."exitfi#tensorrtversion#version=`trtexec|grep-m1TensorRT|sed-n"s
- 小土堆学习笔记10(利用GPU训练于模型验证)
干啥都是小小白
pytorch学习——小土堆学习笔记深度学习
1.利用GPU训练GPU可优化操作如下操作方法1方法2数据获取判断是否可以使用GPU,如果可以直接model.cuda()先设定device,用的时候直接model.to(“device”)损失函数1.1利用以前实战模型训练(经过完整测试最高到70%左右的正确率)实战模型如下:小土堆学习笔记5(sequential与小实战)-CSDN博客具体代码如下:classmymodel(Module):de
- 安装CUDA Cudnn Pytorch(GPU版本)步骤
学乐乐
pytorch人工智能python
一.先看自己的电脑NVIDIA支持CUDA版本是多少?1.打开NVIDIA控制面板2.点击帮助---系统信息--组件我的支持CUDA11.6二.再看支持Pytorch的CUDA版本三.打开CUDA官网下载CUDA11.6下载好后,安装选择自定义然后安装位置(先去F盘建个CUDA-manger文件夹然后在里面建个CUDA11.6文件夹再在里面建立CUDA1CUDA2这两个文件夹前两个位置选到CUDA
- 【环境安装】安装LLaMA-Factory
BoostingIsm
环境安装深度学习人工智能
【机器背景说明】Linux-Centos7;显卡驱动:DriverVersion:460.106.00;TeslaP40*2【目标环境说明】torch==1.13.1+cu116llamafactory==0.9.2.dev01.CUDA11.6软件安装CUDA11.6软件有两种安装方式,一个是直接安装到Pip环境中、一种是下载到本地安装1.1在Pip环境里直接安装(推荐)此方法优点:省事不需要通
- linux下jax-GPU安装
liu_zhaoda
深度学习-jaxlinuxpythonpytorch
安装命令详细内容可查看jax官方文档在已有cuda的情况下,先使用命令1,再使用命令2,即可完成安装命令1:linux下jax安装命令pipinstalljax[cpu]==0.3.25-fhttps://storage.googleapis.com/jax-releases/jax_releases.html将黑体部分,替换成想要的版本即可命令2:linux下jaxlibcuda安装命令pipi
- jax 和 jaxlib 的 cuda 版本安装
正经市民
linux人工智能pythonpip
笔者花费时间才在Ubuntu20.04适配上jax和jaxlib的cuda版本安装,以及chex版本。版本展示本人版本展示jax==0.4.27,jaxlib==0.4.27+cuda12.cudnn89,chex==0.1.86。安装过程cuda以及环境变量配置过程首先安装cuda12.4和cudnn8.9,给出链接:cuda:https://developer.nvidia.com/cuda-
- 全面解析NVIDIA显卡:从入门级到旗舰级显卡详解
花千树-010
大模型人工智能算法智能电视
在选择显卡时,了解不同显卡的性能和适用场景是非常重要的。无论你是预算有限的入门用户,还是追求极致性能的游戏玩家,亦或是专业的内容创作者和深度学习研究人员,NVIDIA都有适合你的显卡。本篇博文将详细列举NVIDIA显卡的各项配置,从低到高逐一整理,并给出适用的使用场景。入门级显卡NVIDIAGeForceGT1030CUDA核心数:384基础频率:1227MHz加速频率:1468MHz显存:2GB
- 从零开始的 AI Infra 学习之路
SSS不知-道
MLSys人工智能深度学习pytorch
从零开始的AIInfra学习之路文章目录从零开始的AIInfra学习之路一、概述二、AI算法应用2.1机器学习2.2深度学习2.3LLM三、AI开发体系3.1编程语言四、AI训练框架&推理引擎4.1PyTorch4.2llama.cpp4.3vLLM五、AI编译&计算架构5.1CUDA5.2CANN六、AI硬件&体系结构6.1INVIDIAGPU6.2AscendNPU一、概述AIInfra(AI
- ./yolov8_det: error while loading shared libraries: libnvinfer.so.8: cannot open shared object file:
小鲁嵌入式开发之路
YOLOlinux运维
tensorrt编译的时候报错动态链接库有问题,直接吧把libnvinfer.so.8所在文件夹下的所有文件全部复制到根目录下:/usr/lib/sudocp-rf/home/lzw/TensorRT-8.6.1.6/targets/x86_64-linux-gnu/lib/*/usr/lib/然后重新建立连接sudoln-sf/home/lzw/TensorRT-8.6.1.6/targets/
- ImportError: libnvinfer.so.8: cannot open shared object file: No such file or directory
kyle-fang
模型部署经验分享
安装完TensorRT后,导入报错ImportError:libcudnn.so.8:cannotopensharedobjectfile:Nosuchfileordirectory上面报错信息的意思主要是liblibcudnn.so.8这个文件找不到在网上查资料后知道了这个文件是在cudnn的安装包里的,那需要先安装cudnnNVIDIA官网下载cuDNN8.2.1CUDA11.x安装包并解压到
- 【已解决】ImportError: libnvinfer.so.8: cannot open shared object file: No such file or directory
小小小小祥
python
问题描述:按照tensorrt官方安装文档:https://docs.nvidia.com/deeplearning/tensorrt/install-guide/index.html#installing-tar安装完成后,使用python测试导入tensorrtimporttensorrt上述代码报错:Traceback(mostrecentcalllast):File“main.py”,li
- Jetson显卡上运行Qwen2-1.5b模型时报错“RuntimeError triu_tril_cuda_template not implemented for ‘BFloat16‘”
wang151038606
python中bug人工智能pytorch人工智能python
Jetson显卡上运行Qwen2-1.5b模型时报错“RuntimeErrortriu_tril_cuda_templatenotimplementedfor‘BFloat16’”问题描述:CUDA_DEVICE="cuda:0"model_name_or_path='/qwen2-1.5b-instruct'Tokenizer=AutoTokenizer.from_pretrained(mode
- 深度学习(1)
浅忆へ梦微凉
深度学习人工智能深度学习学习方法python
一、torch的安装基于直接设备情况,选择合适的torch版本,有显卡的建议安装GPU版本,可以通过nvidia-smi命令来查看显卡驱动的版本,在官网中根据cuda版本,选择合适的版本号,下面是安装示例代码GPU:pipinstalltorch==2.5.0torchvision==0.20.0torchaudio==2.5.0--index-urlhttps://download.pytorc
- 辗转相处求最大公约数
沐刃青蛟
C++漏洞
无言面对”江东父老“了,接触编程一年了,今天发现还不会辗转相除法求最大公约数。惭愧惭愧!
为此,总结一下以方便日后忘了好查找。
1.输入要比较的两个数a,b
忽略:2.比较大小(因为后面要的是大的数对小的数做%操作)
3.辗转相除(用循环不停的取余,如a%b,直至b=0)
4.最后的a为两数的最大公约数
&
- F5负载均衡会话保持技术及原理技术白皮书
bijian1013
F5负载均衡
一.什么是会话保持? 在大多数电子商务的应用系统或者需要进行用户身份认证的在线系统中,一个客户与服务器经常经过好几次的交互过程才能完成一笔交易或者是一个请求的完成。由于这几次交互过程是密切相关的,服务器在进行这些交互过程的某一个交互步骤时,往往需要了解上一次交互过程的处理结果,或者上几步的交互过程结果,服务器进行下
- Object.equals方法:重载还是覆盖
Cwind
javagenericsoverrideoverload
本文译自StackOverflow上对此问题的讨论。
原问题链接
在阅读Joshua Bloch的《Effective Java(第二版)》第8条“覆盖equals时请遵守通用约定”时对如下论述有疑问:
“不要将equals声明中的Object对象替换为其他的类型。程序员编写出下面这样的equals方法并不鲜见,这会使程序员花上数个小时都搞不清它为什么不能正常工作:”
pu
- 初始线程
15700786134
暑假学习的第一课是讲线程,任务是是界面上的一条线运动起来。
既然是在界面上,那必定得先有一个界面,所以第一步就是,自己的类继承JAVA中的JFrame,在新建的类中写一个界面,代码如下:
public class ShapeFr
- Linux的tcpdump
被触发
tcpdump
用简单的话来定义tcpdump,就是:dump the traffic on a network,根据使用者的定义对网络上的数据包进行截获的包分析工具。 tcpdump可以将网络中传送的数据包的“头”完全截获下来提供分析。它支 持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息。
实用命令实例
默认启动
tcpdump
普通情况下,直
- 安卓程序listview优化后还是卡顿
肆无忌惮_
ListView
最近用eclipse开发一个安卓app,listview使用baseadapter,里面有一个ImageView和两个TextView。使用了Holder内部类进行优化了还是很卡顿。后来发现是图片资源的问题。把一张分辨率高的图片放在了drawable-mdpi文件夹下,当我在每个item中显示,他都要进行缩放,导致很卡顿。解决办法是把这个高分辨率图片放到drawable-xxhdpi下。
&nb
- 扩展easyUI tab控件,添加加载遮罩效果
知了ing
jquery
(function () {
$.extend($.fn.tabs.methods, {
//显示遮罩
loading: function (jq, msg) {
return jq.each(function () {
var panel = $(this).tabs(&
- gradle上传jar到nexus
矮蛋蛋
gradle
原文地址:
https://docs.gradle.org/current/userguide/maven_plugin.html
configurations {
deployerJars
}
dependencies {
deployerJars "org.apache.maven.wagon
- 千万条数据外网导入数据库的解决方案。
alleni123
sqlmysql
从某网上爬了数千万的数据,存在文本中。
然后要导入mysql数据库。
悲剧的是数据库和我存数据的服务器不在一个内网里面。。
ping了一下, 19ms的延迟。
于是下面的代码是没用的。
ps = con.prepareStatement(sql);
ps.setString(1, info.getYear())............;
ps.exec
- JAVA IO InputStreamReader和OutputStreamReader
百合不是茶
JAVA.io操作 字符流
这是第三篇关于java.io的文章了,从开始对io的不了解-->熟悉--->模糊,是这几天来对文件操作中最大的感受,本来自己认为的熟悉了的,刚刚在回想起前面学的好像又不是很清晰了,模糊对我现在或许是最好的鼓励 我会更加的去学 加油!:
JAVA的API提供了另外一种数据保存途径,使用字符流来保存的,字符流只能保存字符形式的流
字节流和字符的难点:a,怎么将读到的数据
- MO、MT解读
bijian1013
GSM
MO= Mobile originate,上行,即用户上发给SP的信息。MT= Mobile Terminate,下行,即SP端下发给用户的信息;
上行:mo提交短信到短信中心下行:mt短信中心向特定的用户转发短信,你的短信是这样的,你所提交的短信,投递的地址是短信中心。短信中心收到你的短信后,存储转发,转发的时候就会根据你填写的接收方号码寻找路由,下发。在彩信领域是一样的道理。下行业务:由SP
- 五个JavaScript基础问题
bijian1013
JavaScriptcallapplythisHoisting
下面是五个关于前端相关的基础问题,但却很能体现JavaScript的基本功底。
问题1:Scope作用范围
考虑下面的代码:
(function() {
var a = b = 5;
})();
console.log(b);
什么会被打印在控制台上?
回答:
上面的代码会打印 5。
&nbs
- 【Thrift二】Thrift Hello World
bit1129
Hello world
本篇,不考虑细节问题和为什么,先照葫芦画瓢写一个Thrift版本的Hello World,了解Thrift RPC服务开发的基本流程
1. 在Intellij中创建一个Maven模块,加入对Thrift的依赖,同时还要加上slf4j依赖,如果不加slf4j依赖,在后面启动Thrift Server时会报错
<dependency>
- 【Avro一】Avro入门
bit1129
入门
本文的目的主要是总结下基于Avro Schema代码生成,然后进行序列化和反序列化开发的基本流程。需要指出的是,Avro并不要求一定得根据Schema文件生成代码,这对于动态类型语言很有用。
1. 添加Maven依赖
<?xml version="1.0" encoding="UTF-8"?>
<proj
- 安装nginx+ngx_lua支持WAF防护功能
ronin47
需要的软件:LuaJIT-2.0.0.tar.gz nginx-1.4.4.tar.gz &nb
- java-5.查找最小的K个元素-使用最大堆
bylijinnan
java
import java.util.Arrays;
import java.util.Random;
public class MinKElement {
/**
* 5.最小的K个元素
* I would like to use MaxHeap.
* using QuickSort is also OK
*/
public static void
- TCP的TIME-WAIT
bylijinnan
socket
原文连接:
http://vincent.bernat.im/en/blog/2014-tcp-time-wait-state-linux.html
以下为对原文的阅读笔记
说明:
主动关闭的一方称为local end,被动关闭的一方称为remote end
本地IP、本地端口、远端IP、远端端口这一“四元组”称为quadruplet,也称为socket
1、TIME_WA
- jquery ajax 序列化表单
coder_xpf
Jquery ajax 序列化
checkbox 如果不设定值,默认选中值为on;设定值之后,选中则为设定的值
<input type="checkbox" name="favor" id="favor" checked="checked"/>
$("#favor&quo
- Apache集群乱码和最高并发控制
cuisuqiang
apachetomcat并发集群乱码
都知道如果使用Http访问,那么在Connector中增加URIEncoding即可,其实使用AJP时也一样,增加useBodyEncodingForURI和URIEncoding即可。
最大连接数也是一样的,增加maxThreads属性即可,如下,配置如下:
<Connector maxThreads="300" port="8019" prot
- websocket
dalan_123
websocket
一、低延迟的客户端-服务器 和 服务器-客户端的连接
很多时候所谓的http的请求、响应的模式,都是客户端加载一个网页,直到用户在进行下一次点击的时候,什么都不会发生。并且所有的http的通信都是客户端控制的,这时候就需要用户的互动或定期轮训的,以便从服务器端加载新的数据。
通常采用的技术比如推送和comet(使用http长连接、无需安装浏览器安装插件的两种方式:基于ajax的长
- 菜鸟分析网络执法官
dcj3sjt126com
网络
最近在论坛上看到很多贴子在讨论网络执法官的问题。菜鸟我正好知道这回事情.人道"人之患好为人师" 手里忍不住,就写点东西吧. 我也很忙.又没有MM,又没有MONEY....晕倒有点跑题.
OK,闲话少说,切如正题. 要了解网络执法官的原理. 就要先了解局域网的通信的原理.
前面我们看到了.在以太网上传输的都是具有以太网头的数据包. 
- Android相对布局属性全集
dcj3sjt126com
android
RelativeLayout布局android:layout_marginTop="25dip" //顶部距离android:gravity="left" //空间布局位置android:layout_marginLeft="15dip //距离左边距
// 相对于给定ID控件android:layout_above 将该控件的底部置于给定ID的
- Tomcat内存设置详解
eksliang
jvmtomcattomcat内存设置
Java内存溢出详解
一、常见的Java内存溢出有以下三种:
1. java.lang.OutOfMemoryError: Java heap space ----JVM Heap(堆)溢出JVM在启动的时候会自动设置JVM Heap的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)不可超过物理内存。
可以利用JVM提
- Java6 JVM参数选项
greatwqs
javaHotSpotjvmjvm参数JVM Options
Java 6 JVM参数选项大全(中文版)
作者:Ken Wu
Email:
[email protected]
转载本文档请注明原文链接 http://kenwublog.com/docs/java6-jvm-options-chinese-edition.htm!
本文是基于最新的SUN官方文档Java SE 6 Hotspot VM Opt
- weblogic创建JMC
i5land
weblogicjms
进入 weblogic控制太
1.创建持久化存储
--Services--Persistant Stores--new--Create FileStores--name随便起--target默认--Directory写入在本机建立的文件夹的路径--ok
2.创建JMS服务器
--Services--Messaging--JMS Servers--new--name随便起--Pers
- 基于 DHT 网络的磁力链接和BT种子的搜索引擎架构
justjavac
DHT
上周开发了一个磁力链接和 BT 种子的搜索引擎 {Magnet & Torrent},本文简单介绍一下主要的系统功能和用到的技术。
系统包括几个独立的部分:
使用 Python 的 Scrapy 框架开发的网络爬虫,用来爬取磁力链接和种子;
使用 PHP CI 框架开发的简易网站;
搜索引擎目前直接使用的 MySQL,将来可以考虑使
- sql添加、删除表中的列
macroli
sql
添加没有默认值:alter table Test add BazaarType char(1)
有默认值的添加列:alter table Test add BazaarType char(1) default(0)
删除没有默认值的列:alter table Test drop COLUMN BazaarType
删除有默认值的列:先删除约束(默认值)alter table Test DRO
- PHP中二维数组的排序方法
abc123456789cba
排序二维数组PHP
<?php/*** @package BugFree* @version $Id: FunctionsMain.inc.php,v 1.32 2005/09/24 11:38:37 wwccss Exp $*** Sort an two-dimension array by some level
- hive优化之------控制hive任务中的map数和reduce数
superlxw1234
hivehive优化
一、 控制hive任务中的map数: 1. 通常情况下,作业会通过input的目录产生一个或者多个map任务。 主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M, 可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改);2. 
- Spring Boot 1.2.4 发布
wiselyman
spring boot
Spring Boot 1.2.4已于6.4日发布,repo.spring.io and Maven Central可以下载(推荐使用maven或者gradle构建下载)。
这是一个维护版本,包含了一些修复small number of fixes,建议所有的用户升级。
Spring Boot 1.3的第一个里程碑版本将在几天后发布,包含许多