- Deepoc大模型在半导体设计优化与自动化
Deepoch
自动化运维人工智能机器人单片机ai科技
大模型在半导体设计领域的应用已形成多维度技术渗透,其核心价值在于通过数据驱动的方式重构传统设计范式。以下从技术方向、实现路径及行业影响三个层面展开详细分析:参数化建模与动态调优基于物理的深度学习模型(如PINNs)将器件物理方程嵌入神经网络架构,实现工艺参数与电学性能的非线性映射建模。通过强化学习框架(如PPO算法)动态调整掺杂浓度、栅极长度等关键参数,在3nm节点下实现驱动电流提升18%的同时降
- 【行云流水a】淘天联合爱橙开源强化学习训练框架ROLL OpenRL/openrl PPO-for-Beginners: 从零开始实现强化学习算法PPO 强化学习框架verl 港大等开源GoT-R1
行云流水AI笔记
开源算法
以下是DQN(DeepQ-Network)和PPO(ProximalPolicyOptimization)的全面对比流程图及文字解析。两者是强化学习的核心算法,但在设计理念、适用场景和实现机制上有显著差异:graphTDA[对比维度]-->B[算法类型]A-->C[策略表示]A-->D[动作空间]A-->E[学习机制]A-->F[探索方式]A-->G[稳定性]A-->H[样本效率]A-->I[关键
- 强化学习实战:从 Q-Learning 到 PPO 全流程
荣华富贵8
程序员的知识储备2程序员的知识储备3人工智能算法机器学习
1引言随着人工智能的快速发展,强化学习(ReinforcementLearning,RL)凭借其在复杂决策与控制问题上的卓越表现,已成为研究与应用的前沿热点。本文旨在从经典的Q-Learning算法入手,系统梳理从值迭代到策略优化的全流程技术细节,直至最具代表性的ProximalPolicyOptimization(PPO)算法,结合理论推导、代码实现与案例分析,深入探讨强化学习的核心原理、算法演
- 强化学习系列——PPO算法
lqjun0827
算法深度学习算法人工智能
强化学习系列——PPO算法PPO算法一、背景知识:策略梯度&Advantage二、引入重要性采样(ImportanceSampling)三、PPO-Clip目标函数推导✅四、总结公式(一图总览)参考文献PPO示例代码实现补充内容:重要性采样一、问题背景:我们想估计某个期望❗问题:二、引入重要性采样(ImportanceSampling)三、离散采样形式(蒙特卡洛估计)四、标准化的重要性采样五、在强
- 从 PPO、DPO 到 GRPO:大语言模型策略优化算法解析
Gowi_fly
深度学习LLM强化学习
从PPO、DPO到GRPO:大语言模型策略优化算法解析背景与简介大语言模型(LLM)的训练通常分为预训练和后训练两个阶段。预训练阶段,模型在海量文本上学习下一词预测的能力;后训练阶段,我们希望进一步对齐模型输出与人类偏好,使模型给出的答案更符合人类期待。这常通过人类反馈强化学习(RLHF)来实现。RLHF的典型流程是:先让人类对模型的不同回答进行比较,得到偏好数据,然后训练一个奖励模型来评估回答质
- 【速写】policy与reward分词器冲突问题(附XAI阅读推荐)
囚生CY
速写python
TRL的PPOTrainer实现存在一个很严重的问题,它的model和reward_model两个参数所使用的分词器是必须相同的,否则一定会报错。之前已经提过,PPOTrainer要求训练数据(train_dataset参数)必须包含input_ids字段,这个跟SFTTrainer,DPOTrainer,GRPOTrainer都不同,查了一下源码(trl/trainer/ppo_trainer.
- 【慢摹】TRL训练器细节详解(SFT/PPO/DPO/GRPO)
序言本文总结一下目前TRL典型的训练器的实现细节(SFT,PPO,DPO,GRPO),也是对上一文【速写】PPOTrainer样例与错误思考(少量DAPO)的补充目前DeepSeek关于各个训练器细节的掌握,尤其是PPOTrainer的问题,依然回答得很差,这个在上文中已经详细指出,它写的代码大多数都是跑不通的,而官方给出的PPO示例(ppo.py)似乎也有一些瑕疵,本文将会一一指出与各位探讨。目
- 对 `llamafactory-cli api -h` 输出的详细解读
路人与大师
人工智能深度学习
llamafactory-cli是LlamaFactory项目提供的命令行接口工具,它允许用户通过命令行参数来配置和运行大型语言模型的各种任务,如预训练(PT)、有监督微调(SFT)、奖励模型训练(RM)、基于人类反馈的强化学习(PPO、DPO、KTO)以及模型推理和导出。首先,命令输出的第一行[2025-06-0309:33:04,590][INFO][real_accelerator.py:1
- 【速写】TRL:Trainer的细节与思考(PPO/DPO+LoRA可行性)
囚生CY
速写人工智能
序言问题源于PPOTrainer里并没有跟SFTTrainer类似的peft_config参数,而SFTTrainer在带和不带peft_config参数的情况下分别对应高效微调和全量微调。自然就会想到是否可以把PPO和PEFT结合,但是目前peft包和trl包上似乎还是存在这种兼容性的问题。另一个问题就是奖励函数的设置,这个是RL从诞生以来一直存在的一个老大难问题。现在有很多方案,但是我始终觉得
- 强化学习的前世今生(四)— DDPG算法
小于小于大橙子
算法人工智能自动化强化学习学习
接前三篇强化学习的前世今生(一)强化学习的前世今生(二)强化学习的前世今生(三)—PPO算法本文为大家介绍DDPG算法6DDPG前文所述方法存在两个问题,第一,因为得到的是随机性策略(StochasticPolicy),即π(a∣s)\pi(a|s)π(a∣s),该策略表示固定动作下各动作的概率,故须要满足离散动作空间的假设;第二,因为行为策略与目标策略相同,故算法是在线的,样本效率低,此时策略称
- 强化学习的前世今生(五)— SAC算法
小于小于大橙子
算法概率论强化学习人工智能自动驾驶AI
书接前四篇强化学习的前世今生(一)强化学习的前世今生(二)强化学习的前世今生(三)—PPO算法强化学习的前世今生(四)—DDPG算法本文为大家介绍SAC算法7SAC7.1最大熵强化学习在信息论中,熵(entropy)是用来衡量一个随机变量不确定性大小的度量,对于一个随机变量XXX,其定义为H(X)=Ex∼p(x)[−logp(x)](7.1)\begin{align*}H(X)&=\mathbb
- DPO(Direct Preference Optimization)详解
要努力啊啊啊
大模型中的技术名词解析人工智能深度学习算法
DPO(DirectPreferenceOptimization)训练详解一、什么是DPO?DPO(DirectPreferenceOptimization)是一种用于训练大语言模型的直接偏好优化方法,它相比于PPO(ProximalPolicyOptimization)无需显式构建奖励模型,而是基于人类反馈的“选优对比”直接学习偏好。应用背景:替代PPO实现RLHF微调流程不需要训练Reward
- GRPO / PPO / DPO 在医疗场景下的 LLM 优化与源码实战分析
观熵
AgenticAI架构实战全流程人工智能智能体Agent
个人简介作者简介:全栈研发,具备端到端系统落地能力,专注大模型的压缩部署、多模态理解与Agent架构设计。热爱“结构”与“秩序”,相信复杂系统背后总有简洁可控的可能。我叫观熵。不是在控熵,就是在观测熵的流动个人主页:观熵个人邮箱:
[email protected]座右铭:愿科技之光,不止照亮智能,也照亮人心!专栏导航观熵系列专栏导航:AI前沿探索:从大模型进化、多模态交互、AIGC内容生成,到
- 【强化学习】PPO如何根据奖励模型调整模型参数
TIM老师
大模型LLM强化学习PPO
我们用一个类比+分步说明来清晰理解这个问题:一、类比:学生考试的评分与改进想象你是一个学生(语言模型),老师(奖励模型)让你回答一道题:你回答问题(生成文本)。老师打分(奖励模型给出分数)。你根据分数改进答题方式(语言模型更新参数)。核心点:老师不告诉你标准答案,只告诉你得分,你通过多次尝试(强化学习)学会“怎么回答能得高分”。二、“评价返回给语言模型”的本质1.返回的是什么?返回的是一个数字(分
- 强化学习:第三方库【TRL - Transformer Reinforcement Learning】
u013250861
RL/强化学习transformer深度学习人工智能
OverviewTRLisacutting-edgelibrarydesignedforpost-trainingfoundationmodelsusingadvancedtechniqueslikeSupervisedFine-Tuning(SFT),ProximalPolicyOptimization(PPO),andDirectPreferenceOptimization(DPO).Buil
- PPO算法详解:强化学习策略优化的新高度
KangkangLoveNLP
强化学习算法人工智能机器学习深度学习神经网络自然语言处理pytorch
PPO算法PPO(ProximalPolicyOptimization,近端策略优化)算法是一种在强化学习领域广泛应用的策略优化算法。它在2017年由JohnSchulman等人提出,是TRPO(TrustRegionPolicyOptimization,信任域策略优化)算法的改进版本,旨在解决TRPO计算复杂度高、实现困难的问题,同时保持良好的性能。PPO算法在许多实际应用中表现出色,尤其是在机
- PPO算法实践:手把手教会你PPO算法的工程应用
KangkangLoveNLP
强化学习算法机器学习人工智能深度学习神经网络自然语言处理
PPO模型的训练我们需要的模型实现流程伪代码代码中的公式解释代码解释数据准备阶段训练阶段实现代码PPO模型的训练我们需要的模型基准模型:一般是SFT后的模型作为基准,新训练的模型不能和这个模型的概率分布相差太大。训练模型:他的结构和基准模型是一样的。reward模型:对一个问答序列进行打分,输出是一个分数。状态价值模型:对每个状态进行评估,对截止到目前的序列预测到序列生成结束后这个序列的期望回报是
- 【大模型解惑】大模型如何在 Supervised Fine‑Tuning (SFT) 之后进行 PPO 强化学习微调?
云博士的AI课堂
大模型技术开发与实践哈佛博后带你玩转机器学习深度学习大模型强化学习SFTPPO预训练监督学习机器学习
近年来主流的大模型对齐流程已趋于“三段式”:预训练→SFT(监督微调)→RLHF(强化学习阶段,常用PPO)。在SFT拿到一个可用初始策略后,再用PPO让模型最大化奖励(人类偏好或自动指标),既能维持语言流畅度,又能显著提升服从性与安全性([2203.02155]Traininglanguagemodelstofollowinstructionswithhumanfeedback,Secretso
- 深度强化学习(DRL)实战:从AlphaGo到自动驾驶
layneyao
ai自动驾驶人工智能机器学习
——从算法原理到产业落地的全链路解析摘要本文通过算法对比矩阵、训练流程图解、Python代码实战及产业应用解析,构建从理论创新到工程落地的完整技术栈。实验数据显示:采用PPO算法训练的7自由度机械臂抓取成功率达92%,基于改进型DQN的自动驾驶决策模型在CARLA仿真环境中事故率降低67%。开发者可通过本文掌握:主流DRL算法特性对比与选型决策树安全约束强化学习(SafeRL)的工程实现从仿真到部
- 大模型面经 | 春招、秋招算法面试常考八股文附答案(二)
皮先生!
大模型面经算法面试人工智能大模型深度学习自然语言处理
大家好,我是皮先生!!今天给大家分享一些关于大模型面试常见的面试题,希望对大家的面试有所帮助。目录1.大模型幻觉问题2.介绍一下常见的位置编码3.介绍一下LoRA4.AdaLoRA和QLoRA5.RLHF中,PPO需要哪几个模型,分别是什么作用?1.大模型幻觉问题幻觉是指大模型在生成文本或进行预测时,产生与事实不符或不符合逻辑的输出。例如,在问答任务中,模型可能给出与问题无关或错误的答案,即使这些
- MuJoCo Playground 机器人强化学习入门教程(一)
强化学习与机器人控制仿真
MuJoCo仿真与控制教程机器人人工智能深度学习开发语言自动驾驶stm32python
系列文章目录目录系列文章目录前言一、学习RL智能体1.1使用braxPPO进行培训1.2使用RSL-RL进行训练二、欢迎来到MuJoCoPlayground!2.1介绍2.2滚动2.3RL2.4PPO2.5实现可视化推出2.6DM控制套件-体验一下!2.7环境可视化2.8训练2.9PPO2.10SAC前言我们介绍的MuJoCoPlayground是一个完全开源的机器人学习框架,由MJX构建,其明确
- 深度强化学习(DRL)框架与多目标调度优化详解
大霸王龙
python深度学习多目标优化深度强化学习
深度强化学习(DRL)框架与多目标调度优化详解(截至2025年4月,结合最新研究进展)一、DRL主流框架及核心算法通用DRL框架RayRLlib:支持分布式训练,集成PPO、A3C、DQN等算法,适用于大规模多目标调度场景(如云资源分配)。StableBaselines3:基于PyTorch,提供模块化接口,支持自定义奖励函数和状态空间,适合动态多目标优化问题(如柔性车间调度)。TensorFor
- 如何从零开始训练一个大模型,文案解析。
要努力啊啊啊
大模型中的技术名词解析算法人工智能
✅大模型微调常见流程图(逻辑顺序)预训练(Pretraining)↓指令微调SFT(SupervisedFine-tuning)↓偏好数据准备(人类偏好标注或对比)↓┌─────────────┬─────────────┐↓↓奖励模型RM直接偏好优化(DPO/SimPO)↓↓PPO强化训练或完成优化训练(完成)简要说明流程逻辑:阶段必选性说明预训练✅必要(已完成)模型基础语言能力来自这里SFT(
- 基础知识:PPO & GRPO
微风❤水墨
LLM&AIGC&VLP人工智能
用最直白的比喻来解释PPO和GRPO的区别,就像训练小狗的两种不同方法:1.PPO(近端策略优化)比喻:就像用零食+绳子训练小狗:绳子(ClippedObjective):防止小狗跑太远(限制策略更新幅度)零食奖励(Critic模型):每次动作后,主人评估"坐得好不好"再给零食特点:边做边教,每步都微调(单样本更新)人话版:PPO像严格的教练,要求你每做一步就立刻打分(
- LLM架构与关键技术解析
XianxinMao
人工智能架构人工智能
标题:LLM架构与关键技术解析文章信息摘要:理解LLM的架构和关键技术(如Transformer、注意力机制、采样技术)是成为LLM科学家的基础,这些技术为模型的构建和优化提供了理论支持。预训练和后训练数据集的准备与优化是构建高效LLM的关键步骤,数据质量直接影响模型的性能和泛化能力。监督微调和偏好对齐是提升LLM性能和应用效果的重要技术,通过直接偏好优化(DPO)和近端策略优化(PPO)等方法,
- DPO vs PPO
LuckyAnJo
LLM相关人工智能机器学习深度学习自然语言处理语言模型
大语言模型强化微调方法DPO(DirectPreferenceOptimization)PPO简单回顾在PPO中,存在两个待训练的网络:Valuenetwork与Policynetwork。在初始情况下:agent会根据初始的policy与环境进行交互,得到一系列的数据轨迹。根据这些轨迹,初始化的Valuenetwork会计算(估计)这些轨迹(每一个state)的value:Vθ(st)=E[∑k
- 基于C++的PPO算法实现托马斯全旋动作的机器人训练系统
程序员Thomas
STM32C++机器人c++算法机器人
基于C++的PPO算法实现托马斯全旋动作的机器人训练系统一、系统设计框架核心架构•感知层:使用深度相机(如IntelRealSense)获取机器人本体姿态和地面接触信息,结合关节编码器和IMU传感器实时反馈关节角度、角速度、末端受力等数据。•策略层:基于PPO算法构建Actor-Critic网络,Actor网络输出各关节力矩或目标角度,Critic网络评估动作价值,通过裁剪重要性采样比(Clipp
- habitat模型训练总结(一):点导航PPO
溯源006
habitat学习habitat
本文对habitat环境中的baseline点导航PPO的模型的构建和训练进行总结0训练代码这个代码在上一篇文章出现过,再粘贴过来,如下:importrandomimportnumpyasnpfromhabitat_baselines.common.baseline_registryimportbaseline_registryfromhabitat_baselines.config.defaul
- RLHF微调大模型---PPO原理和代码实战
韭菜盖饭
大模型大模型微调RLHF人工智能大模型
目录一、前言二、RLHF原理2.1、利用RewardModel2.2、利用ActorModel2.3、优势函数2.4、训练ActorModel2.5、训练CriticModel三、代码四、参考一、前言RLHF:ReinformentLearningHumanFeedback。中文含义是:基于人类反馈的强化学习,用奖励模型RewardModel来训练SFT模型;生成模型使用奖励或惩罚来更新其策略,以
- 传统策略梯度方法的弊端与PPO的改进:稳定性与样本效率的提升
KangkangLoveNLP
强化学习基础知识机器学习概率论人工智能深度学习python算法
为什么传统策略梯度方法(如REINFORCE算法)在训练过程中存在不稳定性和样本效率低下的问题1.传统策略梯度方法的基本公式传统策略梯度方法的目标是最大化累积奖励的期望值。具体来说,优化目标可以表示为:maxθJ(θ)=Eπ[∑t=0∞γtRt+1]\max_\thetaJ(\theta)=\mathbb{E}_\pi\left[\sum_{t=0}^{\infty}\gamma^tR_{t+1
- 继之前的线程循环加到窗口中运行
3213213333332132
javathreadJFrameJPanel
之前写了有关java线程的循环执行和结束,因为想制作成exe文件,想把执行的效果加到窗口上,所以就结合了JFrame和JPanel写了这个程序,这里直接贴出代码,在窗口上运行的效果下面有附图。
package thread;
import java.awt.Graphics;
import java.text.SimpleDateFormat;
import java.util
- linux 常用命令
BlueSkator
linux命令
1.grep
相信这个命令可以说是大家最常用的命令之一了。尤其是查询生产环境的日志,这个命令绝对是必不可少的。
但之前总是习惯于使用 (grep -n 关键字 文件名 )查出关键字以及该关键字所在的行数,然后再用 (sed -n '100,200p' 文件名),去查出该关键字之后的日志内容。
但其实还有更简便的办法,就是用(grep -B n、-A n、-C n 关键
- php heredoc原文档和nowdoc语法
dcj3sjt126com
PHPheredocnowdoc
<!doctype html>
<html lang="en">
<head>
<meta charset="utf-8">
<title>Current To-Do List</title>
</head>
<body>
<?
- overflow的属性
周华华
JavaScript
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml&q
- 《我所了解的Java》——总体目录
g21121
java
准备用一年左右时间写一个系列的文章《我所了解的Java》,目录及内容会不断完善及调整。
在编写相关内容时难免出现笔误、代码无法执行、名词理解错误等,请大家及时指出,我会第一时间更正。
&n
- [简单]docx4j常用方法小结
53873039oycg
docx
本代码基于docx4j-3.2.0,在office word 2007上测试通过。代码如下:
import java.io.File;
import java.io.FileInputStream;
import ja
- Spring配置学习
云端月影
spring配置
首先来看一个标准的Spring配置文件 applicationContext.xml
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi=&q
- Java新手入门的30个基本概念三
aijuans
java新手java 入门
17.Java中的每一个类都是从Object类扩展而来的。 18.object类中的equal和toString方法。 equal用于测试一个对象是否同另一个对象相等。 toString返回一个代表该对象的字符串,几乎每一个类都会重载该方法,以便返回当前状态的正确表示.(toString 方法是一个很重要的方法) 19.通用编程:任何类类型的所有值都可以同object类性的变量来代替。
- 《2008 IBM Rational 软件开发高峰论坛会议》小记
antonyup_2006
软件测试敏捷开发项目管理IBM活动
我一直想写些总结,用于交流和备忘,然都没提笔,今以一篇参加活动的感受小记开个头,呵呵!
其实参加《2008 IBM Rational 软件开发高峰论坛会议》是9月4号,那天刚好调休.但接着项目颇为忙,所以今天在中秋佳节的假期里整理了下.
参加这次活动是一个朋友给的一个邀请书,才知道有这样的一个活动,虽然现在项目暂时没用到IBM的解决方案,但觉的参与这样一个活动可以拓宽下视野和相关知识.
- PL/SQL的过程编程,异常,声明变量,PL/SQL块
百合不是茶
PL/SQL的过程编程异常PL/SQL块声明变量
PL/SQL;
过程;
符号;
变量;
PL/SQL块;
输出;
异常;
PL/SQL 是过程语言(Procedural Language)与结构化查询语言(SQL)结合而成的编程语言PL/SQL 是对 SQL 的扩展,sql的执行时每次都要写操作
- Mockito(三)--完整功能介绍
bijian1013
持续集成mockito单元测试
mockito官网:http://code.google.com/p/mockito/,打开documentation可以看到官方最新的文档资料。
一.使用mockito验证行为
//首先要import Mockito
import static org.mockito.Mockito.*;
//mo
- 精通Oracle10编程SQL(8)使用复合数据类型
bijian1013
oracle数据库plsql
/*
*使用复合数据类型
*/
--PL/SQL记录
--定义PL/SQL记录
--自定义PL/SQL记录
DECLARE
TYPE emp_record_type IS RECORD(
name emp.ename%TYPE,
salary emp.sal%TYPE,
dno emp.deptno%TYPE
);
emp_
- 【Linux常用命令一】grep命令
bit1129
Linux常用命令
grep命令格式
grep [option] pattern [file-list]
grep命令用于在指定的文件(一个或者多个,file-list)中查找包含模式串(pattern)的行,[option]用于控制grep命令的查找方式。
pattern可以是普通字符串,也可以是正则表达式,当查找的字符串包含正则表达式字符或者特
- mybatis3入门学习笔记
白糖_
sqlibatisqqjdbc配置管理
MyBatis 的前身就是iBatis,是一个数据持久层(ORM)框架。 MyBatis 是支持普通 SQL 查询,存储过程和高级映射的优秀持久层框架。MyBatis对JDBC进行了一次很浅的封装。
以前也学过iBatis,因为MyBatis是iBatis的升级版本,最初以为改动应该不大,实际结果是MyBatis对配置文件进行了一些大的改动,使整个框架更加方便人性化。
- Linux 命令神器:lsof 入门
ronin47
lsof
lsof是系统管理/安全的尤伯工具。我大多数时候用它来从系统获得与网络连接相关的信息,但那只是这个强大而又鲜为人知的应用的第一步。将这个工具称之为lsof真实名副其实,因为它是指“列出打开文件(lists openfiles)”。而有一点要切记,在Unix中一切(包括网络套接口)都是文件。
有趣的是,lsof也是有着最多
- java实现两个大数相加,可能存在溢出。
bylijinnan
java实现
import java.math.BigInteger;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
public class BigIntegerAddition {
/**
* 题目:java实现两个大数相加,可能存在溢出。
* 如123456789 + 987654321
- Kettle学习资料分享,附大神用Kettle的一套流程完成对整个数据库迁移方法
Kai_Ge
Kettle
Kettle学习资料分享
Kettle 3.2 使用说明书
目录
概述..........................................................................................................................................7
1.Kettle 资源库管
- [货币与金融]钢之炼金术士
comsci
金融
自古以来,都有一些人在从事炼金术的工作.........但是很少有成功的
那么随着人类在理论物理和工程物理上面取得的一些突破性进展......
炼金术这个古老
- Toast原来也可以多样化
dai_lm
androidtoast
Style 1: 默认
Toast def = Toast.makeText(this, "default", Toast.LENGTH_SHORT);
def.show();
Style 2: 顶部显示
Toast top = Toast.makeText(this, "top", Toast.LENGTH_SHORT);
t
- java数据计算的几种解决方法3
datamachine
javahadoopibatisr-languer
4、iBatis
简单敏捷因此强大的数据计算层。和Hibernate不同,它鼓励写SQL,所以学习成本最低。同时它用最小的代价实现了计算脚本和JAVA代码的解耦,只用20%的代价就实现了hibernate 80%的功能,没实现的20%是计算脚本和数据库的解耦。
复杂计算环境是它的弱项,比如:分布式计算、复杂计算、非数据
- 向网页中插入透明Flash的方法和技巧
dcj3sjt126com
htmlWebFlash
将
Flash 作品插入网页的时候,我们有时候会需要将它设为透明,有时候我们需要在Flash的背面插入一些漂亮的图片,搭配出漂亮的效果……下面我们介绍一些将Flash插入网页中的一些透明的设置技巧。
一、Swf透明、无坐标控制 首先教大家最简单的插入Flash的代码,透明,无坐标控制: 注意wmode="transparent"是控制Flash是否透明
- ios UICollectionView的使用
dcj3sjt126com
UICollectionView的使用有两种方法,一种是继承UICollectionViewController,这个Controller会自带一个UICollectionView;另外一种是作为一个视图放在普通的UIViewController里面。
个人更喜欢第二种。下面采用第二种方式简单介绍一下UICollectionView的使用。
1.UIViewController实现委托,代码如
- Eos平台java公共逻辑
蕃薯耀
Eos平台java公共逻辑Eos平台java公共逻辑
Eos平台java公共逻辑
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2015年6月1日 17:20:4
- SpringMVC4零配置--Web上下文配置【MvcConfig】
hanqunfeng
springmvc4
与SpringSecurity的配置类似,spring同样为我们提供了一个实现类WebMvcConfigurationSupport和一个注解@EnableWebMvc以帮助我们减少bean的声明。
applicationContext-MvcConfig.xml
<!-- 启用注解,并定义组件查找规则 ,mvc层只负责扫描@Controller -->
<
- 解决ie和其他浏览器poi下载excel文件名乱码
jackyrong
Excel
使用poi,做传统的excel导出,然后想在浏览器中,让用户选择另存为,保存用户下载的xls文件,这个时候,可能的是在ie下出现乱码(ie,9,10,11),但在firefox,chrome下没乱码,
因此必须综合判断,编写一个工具类:
/**
*
* @Title: pro
- 挥洒泪水的青春
lampcy
编程生活程序员
2015年2月28日,我辞职了,离开了相处一年的触控,转过身--挥洒掉泪水,毅然来到了兄弟连,背负着许多的不解、质疑——”你一个零基础、脑子又不聪明的人,还敢跨行业,选择Unity3D?“,”真是不自量力••••••“,”真是初生牛犊不怕虎•••••“,••••••我只是淡淡一笑,拎着行李----坐上了通向挥洒泪水的青春之地——兄弟连!
这就是我青春的分割线,不后悔,只会去用泪水浇灌——已经来到
- 稳增长之中国股市两点意见-----严控做空,建立涨跌停版停牌重组机制
nannan408
对于股市,我们国家的监管还是有点拼的,但始终拼不过飞流直下的恐慌,为什么呢?
笔者首先支持股市的监管。对于股市越管越荡的现象,笔者认为首先是做空力量超过了股市自身的升力,并且对于跌停停牌重组的快速反应还没建立好,上市公司对于股价下跌没有很好的利好支撑。
我们来看美国和香港是怎么应对股灾的。美国是靠禁止重要股票做空,在
- 动态设置iframe高度(iframe高度自适应)
Rainbow702
JavaScriptiframecontentDocument高度自适应局部刷新
如果需要对画面中的部分区域作局部刷新,大家可能都会想到使用ajax。
但有些情况下,须使用在页面中嵌入一个iframe来作局部刷新。
对于使用iframe的情况,发现有一个问题,就是iframe中的页面的高度可能会很高,但是外面页面并不会被iframe内部页面给撑开,如下面的结构:
<div id="content">
<div id=&quo
- 用Rapael做图表
tntxia
rap
function drawReport(paper,attr,data){
var width = attr.width;
var height = attr.height;
var max = 0;
&nbs
- HTML5 bootstrap2网页兼容(支持IE10以下)
xiaoluode
html5bootstrap
<!DOCTYPE html>
<html>
<head lang="zh-CN">
<meta charset="UTF-8">
<meta http-equiv="X-UA-Compatible" content="IE=edge">