- Happy-LLM 第二章 Transformer
HalukiSan
transformer深度学习人工智能
Transform架构图片来自[Happy-llm](happy-llm/docs/chapter2/第二章Transformer架构.mdatmain·datawhalechina/happy-llm),若加载不出来,请开梯子注意力机制前馈神经网络每一层的神经元都与上下两层的每一个神经元完全连接数据在其中只向前流动,用于处理静态的数据,进行图像识别或者分类,但是该网络没有记忆能力,数据在它里面没
- happy-llm 第二章 Transformer架构
weixin_38374194
transformer深度学习人工智能学习
文章目录一、注意力机制核心解析1.1注意力机制的本质与核心变量1.2注意力机制的数学推导1.3注意力机制的变种实现1.3.1自注意力(Self-Attention)1.3.2掩码自注意力(MaskedSelf-Attention)1.3.3多头注意力(Multi-HeadAttention)二、Encoder-Decoder架构详解2.1Seq2Seq任务与架构设计2.2核心组件解析2.2.1前馈
- Nystromformer:一种基于 Nyström 方法的自注意力近似算法
AI专题精讲
Paper阅读人工智能自然语言处理AI
1.摘要Transformer已经成为广泛自然语言处理任务中的强大工具。推动Transformer展现出卓越性能的一个关键组件是self-attention机制,它对每个token编码了其他token的影响或依赖关系。虽然self-attention机制具有诸多优势,但其在输入序列长度上的二次复杂度限制了其在较长序列上的应用——这是当前社区积极研究的一个主题。为了解决这一限制,我们提出了Nystr
- 【极光优化算法+分解对比】VMD-PLO-Transformer-LSTM多变量时间序列光伏功率预测Matlab代码
matlab科研助手
算法transformerlstm
✅作者简介:热爱数据处理、建模、算法设计的Matlab仿真开发者。更多Matlab代码及仿真咨询内容点击:Matlab科研工作室个人信条:格物致知。内容介绍光伏发电作为一种清洁能源,其功率预测对于电网稳定运行和电力系统调度至关重要。然而,光伏功率具有高度的非线性和波动性,传统的预测方法难以准确捕捉其动态特性。近年来,深度学习技术在时间序列预测领域取得了显著进展,为提高光伏功率预测精度提供了新的途径
- ConvNeXT:面向 2020 年代的卷积神经网络
摘要视觉识别的“咆哮二十年代”始于VisionTransformer(ViT)的引入,ViT很快取代了ConvNet,成为图像分类任务中的最新最强模型。然而,vanillaViT在应用于目标检测、语义分割等通用计算机视觉任务时面临困难。HierarchicalTransformer(如SwinTransformer)重新引入了若干ConvNet的先验知识,使Transformer成为实用的通用视觉
- 目标检测新纪元:DETR到Mamba实战解析
加油吧zkf
图像处理python分类人工智能目标检测
【实战分享】目标检测的“后DEⱯ”时代:DETR/DINO/RT-DETR及新型骨干网络探索(含示例代码)目标检测从YOLO、FasterR-CNN到Transformer结构的DETR,再到DINO、RT-DETR,近两年出现了许多新趋势:更高效的端到端结构、更少的手工设计(比如不再需要NMS)、以及新型轻量化骨干网络(比如Mamba、ConvNeXt、ViT等)被引入检测任务中。作为从事目标检
- 计算机视觉中的Transformer:ViT模型详解与代码实现
AI大模型应用工坊
计算机视觉transformer人工智能ai
计算机视觉中的Transformer:ViT模型详解与代码实现关键词:计算机视觉、Transformer、ViT、自注意力机制、图像分块摘要:传统卷积神经网络(CNN)统治计算机视觉领域多年,但2020年一篇《AnImageisWorth16x16Words:TransformersforImageRecognitionatScale》的论文打破了这一格局——它将NLP领域的Transformer
- LLM面试题14
三月七꧁ ꧂
破题·大模型面试语言模型人工智能数据库自然语言处理prompt
算法岗面试题介绍下Transformer模型。 Transformer本身是一个典型的encoder-decoder模型,Encoder端和Decoder端均有6个Block,Encoder端的Block包括两个模块,多头self-attention模块以及一个前馈神经网络模块;Decoder端的Block包括三个模块,Masked多头self-attention模块,多头Encoder-D
- RT‑DETR 系列发展时间顺序
要努力啊啊啊
计算机视觉深度学习计算机视觉目标检测人工智能
RT‑DETR系列发展时间顺序RT‑DETR系列是由百度提出的一系列基于Transformer的实时端到端目标检测器,以下列出了从提出到演化的主要milestone:时间线概览版本时间主要改进/特点DETR2020–05(论文)oai_citation:0‡labellerr.comoai_citation:1‡arxiv.orgTransformer架构首次用于端到端检测,无需NMSRT‑DET
- MOBILEVIT: 轻量级、通用且适用于移动设备的视觉Transformer
AI专题精讲
Paper阅读transformer深度学习人工智能计算机视觉
摘要轻量级卷积神经网络(CNN)是移动视觉任务的事实标准。它们的空间归纳偏置使得它们能够在不同的视觉任务中以较少的参数学习表示。然而,这些网络在空间上是局部的。为了学习全局表示,基于自注意力的视觉Transformer(ViT)被采用。与CNN不同,ViT是重量级的。本文提出了以下问题:是否有可能将CNN和ViT的优势结合起来,构建一个适用于移动视觉任务的轻量级低延迟网络?为此,我们介绍了Mobi
- 【LLM论文阅读】
一只齐刘海的猫
论文阅读
LLM论文阅读论文重点论文链接RopeRoFormer:EnhancedTransformerwithRotaryPositionEmbeddingRoPE论文阅读YarnUnderstandingYaRN:ExtendingContextWindowofLLMs论文YaRN笔记T5ExploringtheLimitsofTransferLearningwithaUnifiedText-to-Te
- 修改Spatial-MLLM项目,使其专注于无人机航拍视频的空间理解
神经网络15044
python神经网络算法无人机音视频机器学习人工智能算法架构
修改Spatial-MLLM项目,使其专注于无人机航拍视频的空间理解。以下是修改方案和关键代码实现:修改思路输入处理:将原项目的视频+文本输入改为单一无人机航拍视频/图像输入问题生成:自动生成空间理解相关的问题(无需用户输入文本)模型适配:调整视觉编码器处理航拍图像特征输出优化:聚焦空间关系、物体定位和场景结构的分析关键代码修改1.输入处理模块(video_processor.py)importc
- Deepoc光电研发垂直大模型的技术实现突破与核心模块
Deepoch
无人机人工智能科技ai
一、模型架构与算法创新领域专用混合架构设计多模态Transformer扩展:在标准Transformer架构基础上,引入光子器件特性感知模块(如非线性光学参数编码器),支持光路拓扑结构与电磁场分布的联合建模,解决传统电芯片架构无法模拟光子干涉效应的难题。量子-光电混合计算层:通过量子线路模拟光子量子态演化,结合经典计算层优化参数搜索空间,实现NP难问题(如光子芯片布线优化)的指数级加速。物理约束的
- 深度探索:机器学习中的 条件生成对抗网络(Conditional GAN, CGAN)算法原理及其应用
目录1.引言与背景2.CGAN定理3.算法原理4.算法实现5.优缺点分析优点:缺点:6.案例应用7.对比与其他算法8.结论与展望1.引言与背景生成对抗网络(GenerativeAdversarialNetworks,GANs)作为一种深度学习框架,在无监督学习领域展现出强大的能力,特别在图像、音频、文本等复杂数据的生成任务中取得了显著成果。然而,原始GAN模型在生成过程中缺乏对生成样本特定属性的直
- 目标检测在国防和政府的应用实例
MzKyle
计算机视觉目标检测人工智能计算机视觉
一、目标检测技术概述目标检测是计算机视觉的核心任务,通过算法对图像/视频中的物体进行识别与定位,当前主流技术包括:经典算法:YOLO系列(实时性强)、FasterR-CNN(精度高)、SSD(平衡速度与精度)技术升级:结合深度学习(CNN、Transformer)、多模态融合(视觉+红外+雷达)、边缘计算实时处理二、国防领域核心应用实例(一)军事侦察与监控系统无人机侦察与目标识别应用场景:战术无人
- BERT(Bidirectional Encoder Representations from Transformers)
jerwey
bert人工智能深度学习
BERT(BidirectionalEncoderRepresentationsfromTransformers)是由Google于2018年提出的一种基于Transformer架构的预训练语言模型,属于大型语言模型(LLM)的一种重要类型。其核心特点和技术定位如下:1.核心架构Encoder-Only结构:BERT仅使用Transformer的编码器(Encoder),通过多层堆叠捕捉文本的双向
- 大语言模型(LLM)按架构分类
jerwey
语言模型分类人工智能
大语言模型(LLM)按架构分类的深度解析1.仅编码器架构(Encoder-Only)原理双向注意力机制:通过Transformer编码器同时捕捉上下文所有位置的依赖关系#伪代码示例:BERT的MLM任务masked_input="The[MASK]satonthemat"output=encoder(masked_input)#预测[MASK]="cat"预训练任务:掩码语言建模(MLM):随机遮
- 第G1周:生成对抗网络(GAN)入门
本文为365天深度学习训练营原作者:K同学啊基础任务:1.了解什么是生成对抗网络2.生成对抗网络结构是怎么样的3.学习本文代码,并跑通代码进阶任务:调用训练好的模型生成新图像一、理论基础生成对抗网络(GenerativeAdversarialNetworks,GAN)是近年来深度学习领域的一个热点方向。GAN并不指代某一个具体的神经网络,而是指一类基于博弈思想而设计的神经网络。GAN由两个分别被称
- 深入了解Transformer模型及其优缺点
目录前言1Transformer结构特点1.1注意力机制(Self-Attention)1.2编码器-解码器架构1.3位置编码和基于注意力的损失函数2Transformer模型优缺点分析2.1Transformer模型的优点2.2Transformer模型的缺点3应用领域结语前言在当今人工智能领域,自然语言处理的关键问题之一是解决文本理解和生成中的挑战。传统的循环神经网络虽然在处理序列数据方面取得
- GNN多任务预测模型实现(二):将EXCEL数据转换为图数据
走的远一些
神经网络知识分享知识备份人工智能深度学习
目录一.引言二.加载和检查数据三.提取特征和标签四.标准化特征五.构建节点索引六.构建边及其特征七.总结八.结语一.引言在图神经网络(GraphNeuralNetworks,GNNs)的多任务学习场景中,数据预处理是至关重要的一步。尤其是当我们的数据存储在表格格式(如Excel文件)中时,如何有效地将其转换为图数据格式,是搭建GNN模型的基础。二.加载和检查数据第一步是加载数据并检查其格式。我们通
- Day44
1.预训练概念:在大规模数据上训练模型学习通用知识,再迁移到下游任务微调2.常见模型:图像有AlexNet、ResNet、ViT;NLP有BERT、GPT3.图像模型发展:从手工特征到深度学习,从CNN到Transformer、多模态4.预训练策略:数据增强、自监督/监督训练、模型微调、多模态学习作业1.importtorchimporttorch.nnasnnimporttorch.optima
- 顶会新方向!14篇图神经网络(GNN)最新顶会论文汇总!(含2024)
AI科研技术派
神经网络人工智能深度学习
图神经网络(GNN)是深度学习领域中备受关注的前沿课题,它在处理图结构数据方面展现出了强大的潜力,随着研究的不断深入,越来越多的优秀论文在顶级学术会议上涌现。今天就给大家整理了14篇顶会中发表的图神经网络优质论文,一起看看这方面的最新研究成果吧!AAAI20241、Fine-tuningGraphNeuralNetworksbyPreservingGraphGenerativePatterns通过
- Segment Anything in High Quality之SAM-HQ论文阅读
qq_41627642
深度学习论文阅读论文阅读
摘要最近的SegmentAnythingModel(SAM)在扩展分割模型规模方面取得了重大突破,具备强大的零样本能力和灵活的提示机制。尽管SAM在训练时使用了11亿个掩码,其掩码预测质量在许多情况下仍不理想,尤其是对于结构复杂的目标。我们提出了HQ-SAM,使SAM能够精确地分割任意目标,同时保留其原有的可提示设计、高效性和零样本泛化能力。我们的设计充分复用并保留了SAM预训练的模型权重,仅引入
- Qwen3 Embedding 结构-加载-训练 看透模型设计哲学
看透一个顶级AI句向量模型的设计秘密,从文件结构到加载原理,再到其背后的训练哲学。1Qwen3-Embedding模型结构拆解说明:目录包含了运行一个基于Transformer的句向量模型所需的所有组件文件类别核心文件作用核心模型model.safetensors,config.jsonmodel.safetensors存储了模型所有训练好的权重分词器tokenizer.json,vocab.js
- Llama改进之——RoPE旋转位置编码
愤怒的可乐
NLP项目实战#LLaMARoPE旋转位置编码
引言旋转位置编码(RotaryPositionEmbedding,RoPE)将绝对相对位置依赖纳入自注意力机制中,以增强Transformer架构的性能。目前很火的大模型LLaMA、QWen等都应用了旋转位置编码。之前在[论文笔记]ROFORMER中对旋转位置编码的原始论文进行了解析,重点推导了旋转位置编码的公式,本文侧重实现,同时尽量简化数学上的推理,详细推理可见最后的参考文章。复数与极坐标复数
- Llama改进之——分组查询注意力
愤怒的可乐
#NLP项目实战自然语言处理llama深度学习人工智能分组查询注意力旋转位置编码
引言今天介绍LLAMA2模型引入的关于注意力的改进——分组查询注意力(Grouped-queryattention,GQA)1。Transformer中的多头注意力在解码阶段来说是一个性能瓶颈。多查询注意力2通过共享单个key和value头,同时不减少query头来提升性能。多查询注意力可能导致质量下降和训练不稳定,因此常用的是分组查询注意力。然后我们结合上篇文章3探讨的旋转位置编码,将选择位置编
- Llama改进之——均方根层归一化RMSNorm
愤怒的可乐
NLP项目实战#llama
引言在学习完GPT2之后,从本文开始进入Llama模型系列。本文介绍Llama模型的改进之RMSNorm(均方根层归一化)。它是由RootMeanSquareLayerNormalization论文提出来的,可以参阅其论文笔记1。LayerNorm层归一化(LayerNorm)对Transformer等模型来说非常重要,它可以帮助稳定训练并提升模型收敛性。LayerNorm针对一个样本所有特征计算
- 强人工智能是否会诞生于现在的AI之中
一花·一叶
人工智能语言模型
为什么我认为当前AI方法无法实现真正的人工智能?随着大模型的发展日新月异,越来越多的人开始相信我们正在接近通用人工智能(AGI)。然而,作为一名人工智能领域的算法工程师,我反而越来越确信:现有的技术路径——以Transformer为核心的深度神经网络,可能已经达到了它的能力上限。我们或许正站在一个新时代的门槛上:真正的强人工智能将不会诞生于现有的范式中,而需要一条全新的算法路径。Transform
- 从零实现Llama3:深入解析Transformer架构与实现细节
祁婉菲Flora
从零实现Llama3:深入解析Transformer架构与实现细节llama3-from-scratchllama3一次实现一个矩阵乘法。项目地址:https://gitcode.com/gh_mirrors/ll/llama3-from-scratch引言本文将深入探讨如何从零开始实现Llama3语言模型。我们将从最基本的张量操作开始,逐步构建完整的Transformer架构。通过这个过程,读者
- 解密GPT工作原理:Transformer架构详解与自注意力机制剖析
AI智能应用
gpttransformer架构ai
解密GPT工作原理:Transformer架构详解与自注意力机制剖析关键词:GPT、Transformer、自注意力机制、神经网络、语言模型、深度学习、人工智能摘要:本文将深入浅出地解析GPT模型的核心架构——Transformer,重点剖析其革命性的自注意力机制。我们将从基本概念出发,通过生活化的比喻解释复杂的技术原理,并用Python代码示例展示实现细节,最后探讨这一技术的应用场景和未来发展方
- sql统计相同项个数并按名次显示
朱辉辉33
javaoracle
现在有如下这样一个表:
A表
ID Name time
------------------------------
0001 aaa 2006-11-18
0002 ccc 2006-11-18
0003 eee 2006-11-18
0004 aaa 2006-11-18
0005 eee 2006-11-18
0004 aaa 2006-11-18
0002 ccc 20
- Android+Jquery Mobile学习系列-目录
白糖_
JQuery Mobile
最近在研究学习基于Android的移动应用开发,准备给家里人做一个应用程序用用。向公司手机移动团队咨询了下,觉得使用Android的WebView上手最快,因为WebView等于是一个内置浏览器,可以基于html页面开发,不用去学习Android自带的七七八八的控件。然后加上Jquery mobile的样式渲染和事件等,就能非常方便的做动态应用了。
从现在起,往后一段时间,我打算
- 如何给线程池命名
daysinsun
线程池
在系统运行后,在线程快照里总是看到线程池的名字为pool-xx,这样导致很不好定位,怎么给线程池一个有意义的名字呢。参照ThreadPoolExecutor类的ThreadFactory,自己实现ThreadFactory接口,重写newThread方法即可。参考代码如下:
public class Named
- IE 中"HTML Parsing Error:Unable to modify the parent container element before the
周凡杨
html解析errorreadyState
错误: IE 中"HTML Parsing Error:Unable to modify the parent container element before the child element is closed"
现象: 同事之间几个IE 测试情况下,有的报这个错,有的不报。经查询资料后,可归纳以下原因。
- java上传
g21121
java
我们在做web项目中通常会遇到上传文件的情况,用struts等框架的会直接用的自带的标签和组件,今天说的是利用servlet来完成上传。
我们这里利用到commons-fileupload组件,相关jar包可以取apache官网下载:http://commons.apache.org/
下面是servlet的代码:
//定义一个磁盘文件工厂
DiskFileItemFactory fact
- SpringMVC配置学习
510888780
springmvc
spring MVC配置详解
现在主流的Web MVC框架除了Struts这个主力 外,其次就是Spring MVC了,因此这也是作为一名程序员需要掌握的主流框架,框架选择多了,应对多变的需求和业务时,可实行的方案自然就多了。不过要想灵活运用Spring MVC来应对大多数的Web开发,就必须要掌握它的配置及原理。
一、Spring MVC环境搭建:(Spring 2.5.6 + Hi
- spring mvc-jfreeChart 柱图(1)
布衣凌宇
jfreechart
第一步:下载jfreeChart包,注意是jfreeChart文件lib目录下的,jcommon-1.0.23.jar和jfreechart-1.0.19.jar两个包即可;
第二步:配置web.xml;
web.xml代码如下
<servlet>
<servlet-name>jfreechart</servlet-nam
- 我的spring学习笔记13-容器扩展点之PropertyPlaceholderConfigurer
aijuans
Spring3
PropertyPlaceholderConfigurer是个bean工厂后置处理器的实现,也就是BeanFactoryPostProcessor接口的一个实现。关于BeanFactoryPostProcessor和BeanPostProcessor类似。我会在其他地方介绍。PropertyPlaceholderConfigurer可以将上下文(配置文件)中的属性值放在另一个单独的标准java P
- java 线程池使用 Runnable&Callable&Future
antlove
javathreadRunnablecallablefuture
1. 创建线程池
ExecutorService executorService = Executors.newCachedThreadPool();
2. 执行一次线程,调用Runnable接口实现
Future<?> future = executorService.submit(new DefaultRunnable());
System.out.prin
- XML语法元素结构的总结
百合不是茶
xml树结构
1.XML介绍1969年 gml (主要目的是要在不同的机器进行通信的数据规范)1985年 sgml standard generralized markup language1993年 html(www网)1998年 xml extensible markup language
- 改变eclipse编码格式
bijian1013
eclipse编码格式
1.改变整个工作空间的编码格式
改变整个工作空间的编码格式,这样以后新建的文件也是新设置的编码格式。
Eclipse->window->preferences->General->workspace-
- javascript中return的设计缺陷
bijian1013
JavaScriptAngularJS
代码1:
<script>
var gisService = (function(window)
{
return
{
name:function ()
{
alert(1);
}
};
})(this);
gisService.name();
&l
- 【持久化框架MyBatis3八】Spring集成MyBatis3
bit1129
Mybatis3
pom.xml配置
Maven的pom中主要包括:
MyBatis
MyBatis-Spring
Spring
MySQL-Connector-Java
Druid
applicationContext.xml配置
<?xml version="1.0" encoding="UTF-8"?>
&
- java web项目启动时自动加载自定义properties文件
bitray
javaWeb监听器相对路径
创建一个类
public class ContextInitListener implements ServletContextListener
使得该类成为一个监听器。用于监听整个容器生命周期的,主要是初始化和销毁的。
类创建后要在web.xml配置文件中增加一个简单的监听器配置,即刚才我们定义的类。
<listener>
<des
- 用nginx区分文件大小做出不同响应
ronin47
昨晚和前21v的同事聊天,说到我离职后一些技术上的更新。其中有个给某大客户(游戏下载类)的特殊需求设计,因为文件大小差距很大——估计是大版本和补丁的区别——又走的是同一个域名,而squid在响应比较大的文件时,尤其是初次下载的时候,性能比较差,所以拆成两组服务器,squid服务于较小的文件,通过pull方式从peer层获取,nginx服务于较大的文件,通过push方式由peer层分发同步。外部发布
- java-67-扑克牌的顺子.从扑克牌中随机抽5张牌,判断是不是一个顺子,即这5张牌是不是连续的.2-10为数字本身,A为1,J为11,Q为12,K为13,而大
bylijinnan
java
package com.ljn.base;
import java.util.Arrays;
import java.util.Random;
public class ContinuousPoker {
/**
* Q67 扑克牌的顺子 从扑克牌中随机抽5张牌,判断是不是一个顺子,即这5张牌是不是连续的。
* 2-10为数字本身,A为1,J为1
- 翟鸿燊老师语录
ccii
翟鸿燊
一、国学应用智慧TAT之亮剑精神A
1. 角色就是人格
就像你一回家的时候,你一进屋里面,你已经是儿子,是姑娘啦,给老爸老妈倒怀水吧,你还觉得你是老总呢?还拿派呢?就像今天一样,你们往这儿一坐,你们之间是什么,同学,是朋友。
还有下属最忌讳的就是领导向他询问情况的时候,什么我不知道,我不清楚,该你知道的你凭什么不知道
- [光速与宇宙]进行光速飞行的一些问题
comsci
问题
在人类整体进入宇宙时代,即将开展深空宇宙探索之前,我有几个猜想想告诉大家
仅仅是猜想。。。未经官方证实
1:要在宇宙中进行光速飞行,必须首先获得宇宙中的航行通行证,而这个航行通行证并不是我们平常认为的那种带钢印的证书,是什么呢? 下面我来告诉
- oracle undo解析
cwqcwqmax9
oracle
oracle undo解析2012-09-24 09:02:01 我来说两句 作者:虫师收藏 我要投稿
Undo是干嘛用的? &nb
- java中各种集合的详细介绍
dashuaifu
java集合
一,java中各种集合的关系图 Collection 接口的接口 对象的集合 ├ List 子接口 &n
- 卸载windows服务的方法
dcj3sjt126com
windowsservice
卸载Windows服务的方法
在Windows中,有一类程序称为服务,在操作系统内核加载完成后就开始加载。这里程序往往运行在操作系统的底层,因此资源占用比较大、执行效率比较高,比较有代表性的就是杀毒软件。但是一旦因为特殊原因不能正确卸载这些程序了,其加载在Windows内的服务就不容易删除了。即便是删除注册表中的相 应项目,虽然不启动了,但是系统中仍然存在此项服务,只是没有加载而已。如果安装其他
- Warning: The Copy Bundle Resources build phase contains this target's Info.plist
dcj3sjt126com
iosxcode
http://developer.apple.com/iphone/library/qa/qa2009/qa1649.html
Excerpt:
You are getting this warning because you probably added your Info.plist file to your Copy Bundle
- 2014之C++学习笔记(一)
Etwo
C++EtwoEtwoiterator迭代器
已经有很长一段时间没有写博客了,可能大家已经淡忘了Etwo这个人的存在,这一年多以来,本人从事了AS的相关开发工作,但最近一段时间,AS在天朝的没落,相信有很多码农也都清楚,现在的页游基本上达到饱和,手机上的游戏基本被unity3D与cocos占据,AS基本没有容身之处。so。。。最近我并不打算直接转型
- js跨越获取数据问题记录
haifengwuch
jsonpjsonAjax
js的跨越问题,普通的ajax无法获取服务器返回的值。
第一种解决方案,通过getson,后台配合方式,实现。
Java后台代码:
protected void doPost(HttpServletRequest req, HttpServletResponse resp)
throws ServletException, IOException {
String ca
- 蓝色jQuery导航条
ini
JavaScripthtmljqueryWebhtml5
效果体验:http://keleyi.com/keleyi/phtml/jqtexiao/39.htmHTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>jQuery鼠标悬停上下滑动导航条 - 柯乐义<
- linux部署jdk,tomcat,mysql
kerryg
jdktomcatlinuxmysql
1、安装java环境jdk:
一般系统都会默认自带的JDK,但是不太好用,都会卸载了,然后重新安装。
1.1)、卸载:
(rpm -qa :查询已经安装哪些软件包;
rmp -q 软件包:查询指定包是否已
- DOMContentLoaded VS onload VS onreadystatechange
mutongwu
jqueryjs
1. DOMContentLoaded 在页面html、script、style加载完毕即可触发,无需等待所有资源(image/iframe)加载完毕。(IE9+)
2. onload是最早支持的事件,要求所有资源加载完毕触发。
3. onreadystatechange 开始在IE引入,后来其它浏览器也有一定的实现。涉及以下 document , applet, embed, fra
- sql批量插入数据
qifeifei
批量插入
hi,
自己在做工程的时候,遇到批量插入数据的数据修复场景。我的思路是在插入前准备一个临时表,临时表的整理就看当时的选择条件了,临时表就是要插入的数据集,最后再批量插入到数据库中。
WITH tempT AS (
SELECT
item_id AS combo_id,
item_id,
now() AS create_date
FROM
a
- log4j打印日志文件 如何实现相对路径到 项目工程下
thinkfreer
Weblog4j应用服务器日志
最近为了实现统计一个网站的访问量,记录用户的登录信息,以方便站长实时了解自己网站的访问情况,选择了Apache 的log4j,但是在选择相对路径那块 卡主了,X度了好多方法(其实大多都是一样的内用,还一个字都不差的),都没有能解决问题,无奈搞了2天终于解决了,与大家分享一下
需求:
用户登录该网站时,把用户的登录名,ip,时间。统计到一个txt文档里,以方便其他系统调用此txt。项目名
- linux下mysql-5.6.23.tar.gz安装与配置
笑我痴狂
mysqllinuxunix
1.卸载系统默认的mysql
[root@localhost ~]# rpm -qa | grep mysql
mysql-libs-5.1.66-2.el6_3.x86_64
mysql-devel-5.1.66-2.el6_3.x86_64
mysql-5.1.66-2.el6_3.x86_64
[root@localhost ~]# rpm -e mysql-libs-5.1