- 大模型的学习 LLaMa和ChatGLM,minichatgpt4
贝猫说python
学习llama人工智能
LLaMa和ChatGLM,minichatgpt4什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?答:Bert的模型由多层双向的Transformer编码器组成,由12层组成,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。NLU(自然语言理解)任务效果很好,单卡GPU可以部署,速度快,V100GPU下1秒能处理2千条以上。ChatGLM-6B,
- chatGLM-6B部署报错quantization_kernels_parallel.so‘ (or one of its dependencies). Try using the full pat
FL1623863129
环境配置深度学习
用python部署chatglm2时候报错:FileNotFoundError:Couldnotfindmodule'C:\Users\Administrator\.cache\huggingface\modules\transformers_modules\chatglm2-6b-int4\quantization_kernels_parallel.so'(oroneofitsdependenc
- 论文阅读——SpectralGPT
じんじん
论文计算机视觉人工智能
SpectralGPT:SpectralFoundationModelSpectralGPT的通用RS基础模型,该模型专门用于使用新型3D生成预训练Transformer(GPT)处理光谱RS图像。重建损失由两个部分组成:令牌到令牌和频谱到频谱下游任务:
- 今日无更新
我的昵称违规了
学校的一个会忙得昏天黑地。明天有自己的一个发表,还要准备PPT,根据原来的改改就好……这周真的是有点繁杂了,搞定之后连着四五月份要写两篇论文,再加上五月底的课程论文还有紧接着的文献综述,看样子要疯……现在梳理一下自己手里的锤子:转到Pytorch,使用AllenNLP了解Transformer、了解LSTM了解jieba等分词工具了解Gensim等NLP处理工具接下来要做的:基于AllenNLP搞
- YOLOv9改进 添加可变形注意力机制DAttention
学yolo的小白
UPgradeYOLOv9YOLOpython目标检测pytorch
一、DeformableAttentionTransformer论文论文地址:arxiv.org/pdf/2201.00520.pdf二、DeformableAttentionTransformer注意力结构DeformableAttentionTransformer包含可变形注意力机制,允许模型根据输入的内容动态调整注意力权重。在传统的Transformer中,注意力是通过对查询和键向量之间的点
- 图像算法实习生--面经1
小豆包的小朋友0217
算法
系列文章目录文章目录系列文章目录前言一、为什么torch里面要用optimizer.zero_grad()进行梯度置0二、Unet神经网络为什么会在医学图像分割表现好?三、transformer相关问题四、介绍一下胶囊网络的动态路由五、yolo系列出到v9了,介绍一下你最熟悉的yolo算法六、一阶段目标检测算法和二阶段目标检测算法有什么区别?七、讲一下剪枝八、讲一下PTQandQAT量化的区别九、
- 【学习总结】Python transformers AutoTokenizer encode 出现的 101 和 102
爱学习的小道长
AIpython学习AI编程
1.代码展示:fromtransformersimportAutoTokenizer,AutoModelmodel_name="bert-base-chinese"tokenizer=AutoTokenizer.from_pretrained(model_name)model=AutoModel.from_pretrained(model_name)print(len(tokenizer.voca
- 深度学习踩坑记录(持续更新)
芒果不茫QAQ
深度学习人工智能
目录4060显卡cuda版本异常transformers初始化TrainingArguments时output_dir指定问题4060显卡cuda版本异常环境:torch1.11.0+cu113程序报错RuntimeError:nvrtc:error:invalidvaluefor--gpu-architecture(-arch)可能原因与解决办法4060显卡是sm_89架构,支持11.7以上cu
- 小白看得懂的 Transformer
zy_zeros
python开发语言
1.导语谷歌推出的BERT模型在11项NLP任务中夺得SOTA结果,引爆了整个NLP界。而BERT取得成功的一个关键因素是Transformer的强大作用。谷歌的Transformer模型最早是用于机器翻译任务,当时达到了SOTA效果。Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。并且Transformer可以增加到非常深的深度,充分
- 大模型加速与性能对比
__如风__
人工智能语言模型
大模型加速与性能对比阿里通义千问flash-attention加速正常运行通义千问会提示安装flash-attention以获得更快的推理速度,缺少这个包并不影响模型运行。事实证明安装之后对于推理速度的提升也很小(5%),网上说对于微调训练的速度提升比较大,因为是在内网环境下,安装还费了一番周折。本人环境torch2.0.1+cu118cuda11.8nvidia-driver535.98gcc9
- webpack5高级--01_提升开发体验
化作繁星
webpackwebpackjavascript前端
提升开发体验SourceMap为什么开发时我们运行的代码是经过webpack编译后的,例如下面这个样子:/**ATTENTION:The"eval"devtoolhasbeenused(maybebydefaultinmode:"development").*Thisdevtoolisneithermadeforproductionnorforreadableoutputfiles.*Ituses
- beam search原理与常见实现,与直接sample的区别
samoyan
LLM面试transformer面试
目录BeamSearch原理1.基本概念2.工作流程3.特点BeamSearch与直接Sample的区别1.确定性与随机性2.结果多样性3.性能与效率4.应用场景常见的BeamSearch实现1.TensorFlow库2.PyTorch库3.HuggingFace的Transformers库算法库和工具BeamSearch原理1.基本概念BeamSearch是一种启发式图搜索算法,常用于自然语言处
- Transformer、BERT和GPT 自然语言处理领域的重要模型
Jiang_Immortals
人工智能自然语言处理transformerbert
Transformer、BERT和GPT都是自然语言处理领域的重要模型,它们之间有一些区别和联系。区别:架构:Transformer是一种基于自注意力机制的神经网络架构,用于编码输入序列和解码输出序列。BERT(BidirectionalEncoderRepresentationsfromTransformers)是基于Transformer架构的双向编码模型,用于学习上下文无关的词向量表示。GP
- [论文笔记] Transformer-XL
心心喵
论文笔记transformer深度学习人工智能
这篇论文提出的Transformer-XL主要是针对Transformer在解决长依赖问题中受到固定长度上下文的限制,如Bert采用的Transformer最大上下文为512(其中是因为计算资源的限制,不是因为位置编码,因为使用的是绝对位置编码正余弦编码)。Transformer-XL能学习超过固定长度的依赖性,而不破坏时间一致性。它由段级递归机制和一种新的位置编码方案组成。该方法不仅能够捕获长期
- ChatGPT介绍
程序媛9688
gpt
ChatGPT概述ChatGPT是一种前沿的大型语言模型(LargeLanguageModel,LLM),由人工智能研究组织OpenAI研发并推出。它基于Transformer架构,这是一种在自然语言处理(NLP)领域取得突破的深度学习方法。通过在海量的互联网文本数据上进行预训练,ChatGPT获得了强大的语言理解和生成能力。语言理解能力ChatGPT能够理解和分析复杂的自然语言文本。无论是用户提
- VisionLLaMA: A Unified LLaMA Interface for Vision Tasks
liferecords
LLMllama深度学习人工智能机器学习自然语言处理算法
VisionLLaMA:AUnifiedLLaMAInterfaceforVisionTasks相关链接:arxivgithub关键字:VisionLLaMA、visiontransformers、imagegeneration、imageclassification、semanticsegmentation摘要大型语言模型(LLMs)通常基于Transformer架构来处理文本输入。例如,LLa
- Sora - 探索AI视频模型的无限可能
nanshaws
人工智能
方向一:技术解析Sora是OpenAI推出的一款先进的AI视频模型,它在技术上具有多个显著特点。首先,Sora能够处理和生成各种格式的视频,包括不同的时长、宽高比和分辨率,甚至能够生成长达一分钟的高清视频。这一特性使得Sora成为一个通用的视觉数据模型,适用于广泛的应用场景。其次,Sora在技术上采用了扩散型变换器(DiffusionTransformer)架构。这种架构结合了扩散模型和变换器模型
- 4D习书之旅——第二章背景管理是团队管理的核心
小北eric
AMBR流程——背景管理工具你的关注点(Attention)加上你的心态(Mindset)影响你的行为(Behaviors)产生你要的结果(results)第一点A:我关注的内容NASA的斯蒂芬.约翰逊认为“80%甚至95%的失败原因是人为错误或沟通不畅”M1:我的情绪警觉M2:我的想法与内心独白如果接下来的研讨会,与同事沟通不畅,会发生什么?B:让自己变得更好的行动1、觉察自我的情绪,并学会疏导
- 转载--OpenAI视频生成模型Sora的全面解析:从ViViT、Diffusion Transformer到NaViT、VideoPoet
依然风yrlf
人工智能
前言真没想到,距离视频生成上一轮的集中爆发(详见《Sora之前的视频生成发展史:从Gen2、EmuVideo到PixelDance、SVD、Pika1.0》)才过去三个月,没想OpenAI一出手,该领域又直接变天了自打2.16日OpenAI发布sora以来(其开发团队包括DALLE3的4作TimBrooks、DiT一作BillPeebles、三代DALLE的核心作者之一AdityaRamesh等1
- 关于MediaEval数据集的Dataset构建(Text部分-使用PLM BERT)
Coisíní℘
多模态虚假新闻检测bert人工智能深度学习
importrandomimportnumpyasnpimportpandasaspdimporttorchfromtransformersimportBertModel,BertTokenizerfromtqdm.autoimporttqdmfromtorch.utils.dataimportDatasetimportre"""参考Game-On论文""""""util.py"""defset_
- Transformer结构介绍和Pyotrch代码实现
肆十二
Pytorch语法transformer深度学习人工智能
Transformer结构介绍和Pyotrch代码实现关注B站查看更多手把手教学:肆十二-的个人空间-肆十二-个人主页-哔哩哔哩视频(bilibili.com)基本结构介绍Transformer结构是近年来自然语言处理(NLP)领域的重要突破,它完全基于注意力机制(AttentionMechanism)来实现,克服了传统RNN模型无法并行计算以及容易丢失长距离依赖信息的问题。Transformer
- Made In Heaven,LLM要加速了
DisonTangor
人工智能transformer
借鉴了荒木老师笔下的普奇神父的台词玩LLM的多数用的是Huggingface框架,而它本身提供的是accelerate库来提升模型的训练推理速度。这些都离不开Nvidia的Cuda计算,而目前适配这一驱动的只有Windows和Linux。于是我就尝试在这两个系统上进行加速实验,尝试HuggingfaceDoc中推荐的FlashAttention2以及vLLM的PageAttention。原理参考L
- 你下个Vite项目能不能用上Lightning CSS
Vite自从4.4版本开始实验性支持LightningCSS,可以让项目的CSS打包速度更快,构建体积更小,我们来一起看看在Vite中怎么配置使用LightningCSS吧。LightningCSS什么是LightningCSS引用官方的介绍:AnextremelyfastCSSparser,transformer,bundler,andminifier.一个非常快的CSS解析器、转换器、打包器和
- 金融贷款风险预测:使用图神经网络模型进行违约概率评估
从零开始学习人工智能
金融神经网络人工智能
要使用PyTorch和GNN(图神经网络)来预测金融贷款风险,并加入注意力机制,我们首先需要构建一个贷款风险预测的图数据集。然后,我们将设计一个基于注意力机制的GNN模型。以下是一个简化的代码示例,演示了如何使用PyTorch和PyTorchGeometric(一个流行的图神经网络库)来实现这一点。请注意,这只是一个起点,并且您可能需要根据您的具体需求进行调整。首先,安装必要的库:bash复制代码
- Mamba 作者谈 LLM 未来架构
JOYCE_Leo16
Mamba架构计算机视觉深度学习transformerMamba
文章目录前言1、为什么注意力机制有效?2、注意力计算量呈平方级增长3、StripedHyena是个什么模型?4、什么是Mamba?5、Mamba硬件优化6、2024年架构预测7、对AI更多的预测本片文章来自【机器之心】对Mamba作者进行采访所进行的编译整理。前言在大模型领域,一直稳站C位的Transformer最近似乎有被超越的趋势。这个挑战者就是一项名为【Mamba】的研究,其在语言、音频和基
- Transformer视频理解学习的笔记
LinlyZhai
transformer学习笔记
今天复习了Transformer,ViT,学了SwinTransformer,还有观看了B站视频理解沐神系列串讲视频上(24.2.26未看完,明天接着看)这里面更多论文见:https://github.com/mli/paper-reading/B站视频理解沐神系列串讲视频下(明天接着看)上面这张图中的知识蒸馏,可以回头看一下上面这个github网址论文:VideoTransformers:ASu
- 基于深度学习的中文语音识别系统(毕设)
程序员奇奇
深度学习从入门到精通语音识别深度学习人工智能
该系统实现了基于深度框架的语音识别中的声学模型和语言模型建模,其中声学模型包括CNN-CTC、GRU-CTC、CNN-RNN-CTC,语言模型包含transformer、CBHG,数据集包含stc、primewords、Aishell、thchs30四个数据集。本项目现已训练一个迷你的语音识别系统,将项目下载到本地上,下载thchs数据集并解压至data,运行test.py,不出意外能够进行识别,
- 一些大佬的可解释人工智能的优质资料整理及总结(更新中)
Trouville01
人工智能
针对Transformer系列模型的模型可解释性分析:1.关于Transformer可解释性的介绍:Transformer模型的可解释性内容总结:2.关于VIT模型的可解释性研究介绍:VisionTransformer的可解释性内容总结:3.关于Human-in-the-loop的可解释性算法介绍:深度学习的可解释性XAI-6-人机交互类解释(Human-in-the-loopExplanatio
- Attention注意力机制
xieyan0811
网上的文章总把Attention注意力机制和Transformer模型结合来讲,看起来非常复杂。实际上Attention不仅作用于自然语言处理领域,目前已是很通用的技术。本篇来看看Attention的原理,以及在各个领域的典型应用。原理越来越多的模型用到注意力机制,它已成为与全连接,卷积,循环网络同等重要的技术。简单地说,当人观察图片时,一般先扫一眼,确定大概信息,然后聚焦在图中的重要区域,这个区
- 每日一词4 shift
ph2_陈小烦
意:tochangeasituation,discussionetcbygivingspecialattentiontooneideaandsubjectinsteadoftothepreviousones.例:AnincreasingnumberofEnglishlearnersareshiftingtheirfoucusoninputtooutput.shift:1.物体、位置发生变化;2.观
- sql统计相同项个数并按名次显示
朱辉辉33
javaoracle
现在有如下这样一个表:
A表
ID Name time
------------------------------
0001 aaa 2006-11-18
0002 ccc 2006-11-18
0003 eee 2006-11-18
0004 aaa 2006-11-18
0005 eee 2006-11-18
0004 aaa 2006-11-18
0002 ccc 20
- Android+Jquery Mobile学习系列-目录
白糖_
JQuery Mobile
最近在研究学习基于Android的移动应用开发,准备给家里人做一个应用程序用用。向公司手机移动团队咨询了下,觉得使用Android的WebView上手最快,因为WebView等于是一个内置浏览器,可以基于html页面开发,不用去学习Android自带的七七八八的控件。然后加上Jquery mobile的样式渲染和事件等,就能非常方便的做动态应用了。
从现在起,往后一段时间,我打算
- 如何给线程池命名
daysinsun
线程池
在系统运行后,在线程快照里总是看到线程池的名字为pool-xx,这样导致很不好定位,怎么给线程池一个有意义的名字呢。参照ThreadPoolExecutor类的ThreadFactory,自己实现ThreadFactory接口,重写newThread方法即可。参考代码如下:
public class Named
- IE 中"HTML Parsing Error:Unable to modify the parent container element before the
周凡杨
html解析errorreadyState
错误: IE 中"HTML Parsing Error:Unable to modify the parent container element before the child element is closed"
现象: 同事之间几个IE 测试情况下,有的报这个错,有的不报。经查询资料后,可归纳以下原因。
- java上传
g21121
java
我们在做web项目中通常会遇到上传文件的情况,用struts等框架的会直接用的自带的标签和组件,今天说的是利用servlet来完成上传。
我们这里利用到commons-fileupload组件,相关jar包可以取apache官网下载:http://commons.apache.org/
下面是servlet的代码:
//定义一个磁盘文件工厂
DiskFileItemFactory fact
- SpringMVC配置学习
510888780
springmvc
spring MVC配置详解
现在主流的Web MVC框架除了Struts这个主力 外,其次就是Spring MVC了,因此这也是作为一名程序员需要掌握的主流框架,框架选择多了,应对多变的需求和业务时,可实行的方案自然就多了。不过要想灵活运用Spring MVC来应对大多数的Web开发,就必须要掌握它的配置及原理。
一、Spring MVC环境搭建:(Spring 2.5.6 + Hi
- spring mvc-jfreeChart 柱图(1)
布衣凌宇
jfreechart
第一步:下载jfreeChart包,注意是jfreeChart文件lib目录下的,jcommon-1.0.23.jar和jfreechart-1.0.19.jar两个包即可;
第二步:配置web.xml;
web.xml代码如下
<servlet>
<servlet-name>jfreechart</servlet-nam
- 我的spring学习笔记13-容器扩展点之PropertyPlaceholderConfigurer
aijuans
Spring3
PropertyPlaceholderConfigurer是个bean工厂后置处理器的实现,也就是BeanFactoryPostProcessor接口的一个实现。关于BeanFactoryPostProcessor和BeanPostProcessor类似。我会在其他地方介绍。PropertyPlaceholderConfigurer可以将上下文(配置文件)中的属性值放在另一个单独的标准java P
- java 线程池使用 Runnable&Callable&Future
antlove
javathreadRunnablecallablefuture
1. 创建线程池
ExecutorService executorService = Executors.newCachedThreadPool();
2. 执行一次线程,调用Runnable接口实现
Future<?> future = executorService.submit(new DefaultRunnable());
System.out.prin
- XML语法元素结构的总结
百合不是茶
xml树结构
1.XML介绍1969年 gml (主要目的是要在不同的机器进行通信的数据规范)1985年 sgml standard generralized markup language1993年 html(www网)1998年 xml extensible markup language
- 改变eclipse编码格式
bijian1013
eclipse编码格式
1.改变整个工作空间的编码格式
改变整个工作空间的编码格式,这样以后新建的文件也是新设置的编码格式。
Eclipse->window->preferences->General->workspace-
- javascript中return的设计缺陷
bijian1013
JavaScriptAngularJS
代码1:
<script>
var gisService = (function(window)
{
return
{
name:function ()
{
alert(1);
}
};
})(this);
gisService.name();
&l
- 【持久化框架MyBatis3八】Spring集成MyBatis3
bit1129
Mybatis3
pom.xml配置
Maven的pom中主要包括:
MyBatis
MyBatis-Spring
Spring
MySQL-Connector-Java
Druid
applicationContext.xml配置
<?xml version="1.0" encoding="UTF-8"?>
&
- java web项目启动时自动加载自定义properties文件
bitray
javaWeb监听器相对路径
创建一个类
public class ContextInitListener implements ServletContextListener
使得该类成为一个监听器。用于监听整个容器生命周期的,主要是初始化和销毁的。
类创建后要在web.xml配置文件中增加一个简单的监听器配置,即刚才我们定义的类。
<listener>
<des
- 用nginx区分文件大小做出不同响应
ronin47
昨晚和前21v的同事聊天,说到我离职后一些技术上的更新。其中有个给某大客户(游戏下载类)的特殊需求设计,因为文件大小差距很大——估计是大版本和补丁的区别——又走的是同一个域名,而squid在响应比较大的文件时,尤其是初次下载的时候,性能比较差,所以拆成两组服务器,squid服务于较小的文件,通过pull方式从peer层获取,nginx服务于较大的文件,通过push方式由peer层分发同步。外部发布
- java-67-扑克牌的顺子.从扑克牌中随机抽5张牌,判断是不是一个顺子,即这5张牌是不是连续的.2-10为数字本身,A为1,J为11,Q为12,K为13,而大
bylijinnan
java
package com.ljn.base;
import java.util.Arrays;
import java.util.Random;
public class ContinuousPoker {
/**
* Q67 扑克牌的顺子 从扑克牌中随机抽5张牌,判断是不是一个顺子,即这5张牌是不是连续的。
* 2-10为数字本身,A为1,J为1
- 翟鸿燊老师语录
ccii
翟鸿燊
一、国学应用智慧TAT之亮剑精神A
1. 角色就是人格
就像你一回家的时候,你一进屋里面,你已经是儿子,是姑娘啦,给老爸老妈倒怀水吧,你还觉得你是老总呢?还拿派呢?就像今天一样,你们往这儿一坐,你们之间是什么,同学,是朋友。
还有下属最忌讳的就是领导向他询问情况的时候,什么我不知道,我不清楚,该你知道的你凭什么不知道
- [光速与宇宙]进行光速飞行的一些问题
comsci
问题
在人类整体进入宇宙时代,即将开展深空宇宙探索之前,我有几个猜想想告诉大家
仅仅是猜想。。。未经官方证实
1:要在宇宙中进行光速飞行,必须首先获得宇宙中的航行通行证,而这个航行通行证并不是我们平常认为的那种带钢印的证书,是什么呢? 下面我来告诉
- oracle undo解析
cwqcwqmax9
oracle
oracle undo解析2012-09-24 09:02:01 我来说两句 作者:虫师收藏 我要投稿
Undo是干嘛用的? &nb
- java中各种集合的详细介绍
dashuaifu
java集合
一,java中各种集合的关系图 Collection 接口的接口 对象的集合 ├ List 子接口 &n
- 卸载windows服务的方法
dcj3sjt126com
windowsservice
卸载Windows服务的方法
在Windows中,有一类程序称为服务,在操作系统内核加载完成后就开始加载。这里程序往往运行在操作系统的底层,因此资源占用比较大、执行效率比较高,比较有代表性的就是杀毒软件。但是一旦因为特殊原因不能正确卸载这些程序了,其加载在Windows内的服务就不容易删除了。即便是删除注册表中的相 应项目,虽然不启动了,但是系统中仍然存在此项服务,只是没有加载而已。如果安装其他
- Warning: The Copy Bundle Resources build phase contains this target's Info.plist
dcj3sjt126com
iosxcode
http://developer.apple.com/iphone/library/qa/qa2009/qa1649.html
Excerpt:
You are getting this warning because you probably added your Info.plist file to your Copy Bundle
- 2014之C++学习笔记(一)
Etwo
C++EtwoEtwoiterator迭代器
已经有很长一段时间没有写博客了,可能大家已经淡忘了Etwo这个人的存在,这一年多以来,本人从事了AS的相关开发工作,但最近一段时间,AS在天朝的没落,相信有很多码农也都清楚,现在的页游基本上达到饱和,手机上的游戏基本被unity3D与cocos占据,AS基本没有容身之处。so。。。最近我并不打算直接转型
- js跨越获取数据问题记录
haifengwuch
jsonpjsonAjax
js的跨越问题,普通的ajax无法获取服务器返回的值。
第一种解决方案,通过getson,后台配合方式,实现。
Java后台代码:
protected void doPost(HttpServletRequest req, HttpServletResponse resp)
throws ServletException, IOException {
String ca
- 蓝色jQuery导航条
ini
JavaScripthtmljqueryWebhtml5
效果体验:http://keleyi.com/keleyi/phtml/jqtexiao/39.htmHTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>jQuery鼠标悬停上下滑动导航条 - 柯乐义<
- linux部署jdk,tomcat,mysql
kerryg
jdktomcatlinuxmysql
1、安装java环境jdk:
一般系统都会默认自带的JDK,但是不太好用,都会卸载了,然后重新安装。
1.1)、卸载:
(rpm -qa :查询已经安装哪些软件包;
rmp -q 软件包:查询指定包是否已
- DOMContentLoaded VS onload VS onreadystatechange
mutongwu
jqueryjs
1. DOMContentLoaded 在页面html、script、style加载完毕即可触发,无需等待所有资源(image/iframe)加载完毕。(IE9+)
2. onload是最早支持的事件,要求所有资源加载完毕触发。
3. onreadystatechange 开始在IE引入,后来其它浏览器也有一定的实现。涉及以下 document , applet, embed, fra
- sql批量插入数据
qifeifei
批量插入
hi,
自己在做工程的时候,遇到批量插入数据的数据修复场景。我的思路是在插入前准备一个临时表,临时表的整理就看当时的选择条件了,临时表就是要插入的数据集,最后再批量插入到数据库中。
WITH tempT AS (
SELECT
item_id AS combo_id,
item_id,
now() AS create_date
FROM
a
- log4j打印日志文件 如何实现相对路径到 项目工程下
thinkfreer
Weblog4j应用服务器日志
最近为了实现统计一个网站的访问量,记录用户的登录信息,以方便站长实时了解自己网站的访问情况,选择了Apache 的log4j,但是在选择相对路径那块 卡主了,X度了好多方法(其实大多都是一样的内用,还一个字都不差的),都没有能解决问题,无奈搞了2天终于解决了,与大家分享一下
需求:
用户登录该网站时,把用户的登录名,ip,时间。统计到一个txt文档里,以方便其他系统调用此txt。项目名
- linux下mysql-5.6.23.tar.gz安装与配置
笑我痴狂
mysqllinuxunix
1.卸载系统默认的mysql
[root@localhost ~]# rpm -qa | grep mysql
mysql-libs-5.1.66-2.el6_3.x86_64
mysql-devel-5.1.66-2.el6_3.x86_64
mysql-5.1.66-2.el6_3.x86_64
[root@localhost ~]# rpm -e mysql-libs-5.1