- 强化学习入门到不想放弃-1
周博洋K
人工智能
本来想写到深度学习里的,但是线下和别人聊RLHF,和PPO,DPO的时候,我发现大家一脑袋问号,其实也正常,深度学习里面数学的东西没那么多,入门容易一点,强化学习(现在也都谈强化深度学习,或者深度强化学习了)反而没那么要算力,要一堆算法和数学,所以就单开一个系列,专门写强化学习吧其实强化学习,某种程度上比深度学习更早的走进大家的视野,没错,就是那个把李昌镐,柯洁给打败的Alpha第一课我们先讲点基
- 一文打通RLHF的来龙去脉
orangerfun
AI算法自然语言处理人工智能语言模型AIGCchatgpt强化学习RLHF
文章目录1.RLHF的发展历程2.强化学习2.1强化学习基本概念2.2强化学习分类2.3PolicyGradient2.3.1addabaseline2.3.2assignsuitablecredit2.4TRPO和PPO算法2.4.1on-policy2.4.2ImportantSampling2.4.3OffPolicy2.4.4TRPO和PPO算法2.4.5P
- 深度强化学习-策略梯度及PPO算法-笔记(四)
wield_jjz
学习笔记强化学习
策略梯度及PPO算法策略梯度PolicyGradient基础知识策略梯度的计算细节TipsTip1:AddaBaselineTip2:AssignSuitableCredit策略梯度优化的技巧Reinforce蒙特卡洛MC与时序差分TDReinforce算法PPO(ProximalPolicyOptimization)基础知识FromOn-policytoOff-policyImportanceS
- RLHF代码
银晗
人工智能深度学习
https://github.com/CarperAI/trlx/blob/main/examples/summarize_rlhf/reward_model/reward_model.pyhttps://github.com/CarperAI/trlx/blob/main/trlx/models/modeling_ppo.py
- PPO学习
银晗
学习人工智能深度学习
openai用tf实现的真的看不懂,大佬的世界…PPO的详细细节1.奖励模型和策略的价值头将query和response的连接作为输入奖励模型和策略的价值头不仅仅查看响应。相反,它将query和response连接在一起,作为query_responsedefget_rewards_op(self,queries,responses):tokens=tf.concat([queries,respo
- 【挑战全网最易懂】深度强化学习 --- 零基础指南
Debroon
#强化学习人工智能
深度强化学习介绍、概念强化学习介绍离散场景,使用行为价值方法连续场景,使用概率分布方法实时反馈连续场景:使用概率分布+行为价值方法强化学习六要素设计奖励函数设计评论家策略学习与优化算法路径深度Q网络DQN演员-评论家算法:多智能体强化学习核心框架PPO近端策略优化算法演员-评论家的改进算法:近端策略优化算法PPO、优势演员-评论家算法A2C、异步优势演员-评论家算法A3C、深度确定性策略梯度DDP
- 深度强化学习算法PPO训练CartPole
槑槑紫
强化学习算法人工智能pythonpytorch深度学习
PPO代码部分,训练离散动作1.导入必须要的包importtorchimporttorch.nnasnnimporttorch.nn.functionalasfimporttorch.optimasoptimfromtorch.distributionsimportCategoricalfromcollectionsimportdequeimportrandomimportmatplotlib.p
- 强化学习_PPO算法实现Pendulum-v1
¥骁勇善战¥
算法强化学习人工智能
目录PPO算法AC输出连续动作On-policy->Off-policyImportantsamplingIssueofImportanceSamplingAddConstraintPPO代码实现PPO算法PPO(ProximalPolicyOptimization)PPO是基于AC架构的,也就是说,PPO也有两个网络,分别是Actor和Critic,解决了连续动作空间的问题。AC输出连续动作我离
- PPO实战
你会知道我是谁
项目实战强化学习机器学习tensorflow
哈哈初学,复现龙龙老师的实例!state:是平衡小车上的杆子,观测状态由4个连续的参数组成:推车位置[-2.4,2.4],车速[-∞,∞],杆子角度[~-41.8°,~41.8°]与杆子末端速度[-∞,∞]。游戏结束:当极点与垂直方向的夹角超过15度时,或者推车从中心移出2.4个单位以上向推车施加+1或-1的力来控制系统杆保持直立的每个时间步长都提供+1的奖励代码分析经验池缓存批训练条件:Tran
- PPO 跑CartPole-v1
NoahBBQ
RLpytorchgymppoCartPole-v1
gym-0.26.2cartPole-v1参考动手学强化学习书中的代码,并做了一些修改代码importgymimporttorchimporttorch.nnasnnimporttorch.nn.functionalasFimportnumpyasnpimportmatplotlib.pyplotaspltfromtqdmimporttqdmclassPolicyNet(nn.Module):de
- PPO算法实现的37个实现细节(3/3)9 details for continuous action domains
小帅吖
强化学习深度强化学习代码实践深度强化学习PPO算法深度学习人工智能
博客标题:The37ImplementationDetailsofProximalPolicyOptimization作者:Huang,Shengyi;Dossa,RousslanFernandJulien;Raffin,Antonin;Kanervisto,Anssi;Wang,Weixun博客地址:https://iclr-blog-track.github.io/2022/03/25/ppo
- PPO算法实现的37个实现细节(2/3)9 Atari-specific implementation details
小帅吖
深度强化学习代码实践强化学习人工智能深度强化学习深度学习PPO算法
博客标题:The37ImplementationDetailsofProximalPolicyOptimization作者:Huang,Shengyi;Dossa,RousslanFernandJulien;Raffin,Antonin;Kanervisto,Anssi;Wang,Weixun博客地址:https://iclr-blog-track.github.io/2022/03/25/ppo
- PPO算法实现的37个实现细节(1/3)13 core implementation details
小帅吖
强化学习深度强化学习代码实践深度学习深度强化学习PPO算法人工智能神经网络
博客标题:The37ImplementationDetailsofProximalPolicyOptimization作者:Huang,Shengyi;Dossa,RousslanFernandJulien;Raffin,Antonin;Kanervisto,Anssi;Wang,Weixun博客地址:https://iclr-blog-track.github.io/2022/03/25/ppo
- Proximal Policy Optimization
神奇的托尔巴拉德
参考链接:ProximalPolicyOptimization(PPO)算法原理及实现!-李宏毅老师的视频地址:李宏毅深度强化学习(国语)课程(2018)_哔哩哔哩_bilibiliPPO算法是PolicyGradient方法的一种改进版本PolicyGradient算法回顾在PG算法中,我们的Agent又被称为Actor,Actor对于一个特定的任务,都有自己的一个策略,策略通常用一个神经网络表
- 10、InstructGPT:Training language models to follow instructions with human feedback
C--G
#NLP语言模型自然语言处理人工智能
简介GPT的发展历程GPT-1用的是无监督预训练+有监督微调。GPT-2用的是纯无监督预训练。GPT-3沿用了GPT-2的纯无监督预训练,但是数据大了好几个量级。InstructGPT在GPT-3上用强化学习做微调,内核模型为PPO-ptxGPT-1比BERT诞生略早几个月。它们都是采用了Transformer为核心结构,不同的是GPT-1通过自左向右生成式的构建预训练任务,然后得到一个通用的预训
- LLaMA Efficient Tuning
小田_
LLMllama语言模型人工智能
文章目录LLaMAEfficientTuning安装数据准备浏览器一体化界面单GPU训练train_bash1、预训练pt2、指令监督微调sft3、奖励模型训练rm4、PPO训练ppo5、DPO训练dpo多GPU分布式训练1、使用HuggingfaceAccelerate2、使用DeepSpeed导出微调后的模型export_model.pyAPI服务api_demo.py命令行测试cli_dem
- 强化学习:PPO
人工智能MOS
神经网络人工智能深度学习机器学习PPO
PPO简介我们在之前的项目中介绍了基于价值的强化学习算法DQN,基于策略的强化学习算法REINFORCE,基于价值和策略的组合算法Actor-Critic.对于基于策略分方法:参数化智能体的策略,并设计衡量策略好坏的目标函数,通过梯度上升的方法来最大化这个目标函数,使得策略最优。但是这种算法有一个明显的缺点:当策略网络是深度模型时,沿着策略梯度更新参数,很有可能由于步长太长,策略突然显著变差,进而
- 【自然语言处理】【大模型】 ΨPO:一个理解人类偏好学习的统一理论框架
BQW_
自然语言处理自然语言处理RLHF偏好对齐大模型LLM
一个理解人类偏好学习的统一理论框架《AGeneralTheoreticalParadiamtoUnderstandLearningfromHumanPreferences》论文地址:https://arxiv.org/pdf/2310.12036.pdf相关博客【自然语言处理】【大模型】ΨPO:一个理解人类偏好学习的统一理论框架【强化学习】PPO:近端策略优化算法一、简介通过强化学习来学习人类偏好
- 【ChatGPT 默认强化学习策略】PPO 近端策略优化算法
Debroon
#强化学习算法
PPO近端策略优化算法PPO=概率比率裁剪+演员-评论家算法演员-评论家算法:多智能体强化学习核心框架概率比率裁剪:逐步进行变化的方法PPO目标函数的设计重要性采样KL散度PPO=概率比率裁剪+演员-评论家算法论文链接:https://arxiv.org/abs/1707.06347OpenAI提出PPO旨在解决一些在策略梯度方法中常见的问题,特别是与训练稳定性和样本效率有关的问题。能在提高学习效
- 强化学习的优化策略PPO和DPO详解并分析异同
samoyan
人工智能
目录PPO(ProximalPolicyOptimization)工作原理实现步骤DPO(DistributedProximalPolicyOptimization)工作原理实现步骤相同点不同点1、PPO(ProximalPolicyOptimization)工作原理目标函数:PPO旨在通过最大化特定的目标函数来改进策略。这个目标函数通常包括一个期望回报的项,以及可能的正则化项(如熵)来鼓励探索。
- GNN+RL:Flexible Job-Shop Scheduling via Graph Neural Network and Deep Reinforcement Learning
qq_38480311
#文献阅读GNN人工智能深度学习
读paper的目的:看懂GNN如何和RL结合的方法。本文的GNN是HGNN,RL用的PPO算法。主要是看懂GNN和RL如何连接起来以及如何训练的。启发:1.不同size的graph经过feature抽取之后可以经过pooling来统一维度,再送入RL学习。2.对于GNN可以根据节点的不同特性用不同的GAT进行feature的抽取。3.对于不同的step,action的维度和可选择的值都在变化,作者
- 基于深度强化学习算法的仿真到实践教程
方小生–
ROS深度强化学习算法
基于深度强化学习算法的仿真到实践教程遇到问题先看这篇文章,我收集了许多群友遇到的问题。我的毕业论文主要是使用DQN,PPO,SAC仿真,然后放到车上跑(效果不太好)。DQN和PPO是离散控制,SAC是连续控制。代码说明:DQN是依照turtlebot3官方代码修改的pytorch版本,因为tensorflow配置环境有点难(用过的都知道);PPO是使用gym上面的代码修改的;SAC是一个大佬已经写
- DPO讲解
transformer_WSZ
LLMDPOLLM
PPO算法的pipeline冗长,涉及模型多,资源消耗大,且训练极其不稳定。DPO是斯坦福团队基于PPO推导出的优化算法,去掉了RW训练和RL环节,只需要加载一个推理模型和一个训练模型,直接在偏好数据上进行训练即可:损失函数如下:LDPO(πθ;πref)=−E(x,yw,yl)∼D[logσ(βlogπθ(yw∣x)πref(yw∣x)−βlogπθ(yl∣x)πref(yl∣x))]\m
- GPT系列综述
AmberlikeNLP
gpt
目录GPT-2GPT-3GPT3.5ChatGPTLLAMALoradeepspeedGPT-1用的是无监督预训练+有监督微调。GPT-2用的是纯无监督预训练。GPT-3沿用了GPT-2的纯无监督预训练,但是数据大了好几个量级。InstructGPT在GPT-3上用强化学习做微调,内核模型为PPO-ptx,下面的论文会详细分析。ChatGPT沿用了InstructGPT,但是数据大了好几个量级。G
- PPO算法与DDPG算法的比较
还有你Y
机器学习深度学习强化学习算法开发语言
一、PPO算法1.actor网络Actor网络输出在给定状态sts_tst下采取每个动作的概率分布,通常使用一个神经网络表示:[πθ(at∣st)][\pi_\theta(a_t|s_t)][πθ(at∣st)].PPO迭代地更新这个policy,以改进策略并提高性能。2.Critic网络[Vϕ(st)][V_\phi(s_t)][Vϕ(st)]用于估计状态的值函数。Critic网络的目标是学习一
- 【强化学习】PPO:近端策略优化算法
BQW_
自然语言处理人工智能强化学习RLHF人类偏好对齐ChatGPT
近端策略优化算法《ProximalPolicyOptimizationAlgorithms》论文地址:https://arxiv.org/pdf/1707.06347.pdf一、置信域方法(TrustRegionMethods)设πθold\pi_{\theta_{old}}πθold是先前参数为θold\theta_{old}θold的策略网络,πθ\pi_{\theta}πθ则是当前待优化的策
- Mac上检测服务器的端口是否开放的终端指令
MUMUFENG
在Mac上,我们可以利用zsh命令来检测远程服务器的端口是否开放:1.telnettelnetremote_server_ipport例如:telnet8.8.8.853如果能连接到端口,则表示端口开放。2.nc(netcat)nc-vremote_server_ipport例如:nc-v8.8.8.853如果看到"Connectionsucceeded"表示端口开放。3.nmapnmap-ppo
- RLHF中的PPO算法过程微观拆解
非英杰不图
算法chatgpt深度学习人工智能
文章目录PPO算法宏观描述PPO算法微观拆解流程图1.Rollout:根据LM生成文本简介输入输出代码2.Evaluate:对生成的轨迹(文本)进行评估简介输入输出3.OldPolicySampling:计算旧模型的概率、价值简介OldLogprobsOldValuesRefLogprobs输入输出代码4.KLPenalty:新旧策略的KL散度惩罚项简介输入输出代码5.GeneralizedAdv
- 深度强化学习之:PPO训练红白机1942
人工智能与算法学习
游戏人工智能强化学习深度学习openssh
本公众号MyEncyclopedia定期发布AI,算法,工程类深度和前沿文章。欢迎关注,收藏和点赞。本系列将从原理和代码来循序渐进讲解强化深度学习。本篇是深度强化学习动手系列文章,自MyEncyclopedia公众号文章深度强化学习之:DQN训练超级玛丽闯关发布后收到不少关注和反馈,这一期,让我们实现目前主流深度强化学习算法PPO来打另一个红白机经典游戏1942。相关文章链接如下:强化学习开源环境
- 如何选择深度强化学习算法:MuZero/SAC/PPO/TD3/DDPG/DQN/等算法
汀、人工智能
##强化学习相关技巧(调参画图等)人工智能深度学习强化学习深度强化学习DDPGSACPPO
赶时间请直接看加粗的四种算法,它们占据不同的生态位,请根据实际任务需要去选择他们,在强化学习的子领域(多智能体、分层强化学习、逆向强化学习也会以它们为基础开发新的算法):离散动作空间推荐:DuelingDoubleDQN(D3QN)连续动作空间推荐:擅长调参就用TD3,不擅长调参就用PPO或SAC,如果训练环境Rewardfunction都是初学者写的,那就用PPO没入门深度强化学习的人请按顺序学
- 继之前的线程循环加到窗口中运行
3213213333332132
javathreadJFrameJPanel
之前写了有关java线程的循环执行和结束,因为想制作成exe文件,想把执行的效果加到窗口上,所以就结合了JFrame和JPanel写了这个程序,这里直接贴出代码,在窗口上运行的效果下面有附图。
package thread;
import java.awt.Graphics;
import java.text.SimpleDateFormat;
import java.util
- linux 常用命令
BlueSkator
linux命令
1.grep
相信这个命令可以说是大家最常用的命令之一了。尤其是查询生产环境的日志,这个命令绝对是必不可少的。
但之前总是习惯于使用 (grep -n 关键字 文件名 )查出关键字以及该关键字所在的行数,然后再用 (sed -n '100,200p' 文件名),去查出该关键字之后的日志内容。
但其实还有更简便的办法,就是用(grep -B n、-A n、-C n 关键
- php heredoc原文档和nowdoc语法
dcj3sjt126com
PHPheredocnowdoc
<!doctype html>
<html lang="en">
<head>
<meta charset="utf-8">
<title>Current To-Do List</title>
</head>
<body>
<?
- overflow的属性
周华华
JavaScript
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml&q
- 《我所了解的Java》——总体目录
g21121
java
准备用一年左右时间写一个系列的文章《我所了解的Java》,目录及内容会不断完善及调整。
在编写相关内容时难免出现笔误、代码无法执行、名词理解错误等,请大家及时指出,我会第一时间更正。
&n
- [简单]docx4j常用方法小结
53873039oycg
docx
本代码基于docx4j-3.2.0,在office word 2007上测试通过。代码如下:
import java.io.File;
import java.io.FileInputStream;
import ja
- Spring配置学习
云端月影
spring配置
首先来看一个标准的Spring配置文件 applicationContext.xml
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi=&q
- Java新手入门的30个基本概念三
aijuans
java新手java 入门
17.Java中的每一个类都是从Object类扩展而来的。 18.object类中的equal和toString方法。 equal用于测试一个对象是否同另一个对象相等。 toString返回一个代表该对象的字符串,几乎每一个类都会重载该方法,以便返回当前状态的正确表示.(toString 方法是一个很重要的方法) 19.通用编程:任何类类型的所有值都可以同object类性的变量来代替。
- 《2008 IBM Rational 软件开发高峰论坛会议》小记
antonyup_2006
软件测试敏捷开发项目管理IBM活动
我一直想写些总结,用于交流和备忘,然都没提笔,今以一篇参加活动的感受小记开个头,呵呵!
其实参加《2008 IBM Rational 软件开发高峰论坛会议》是9月4号,那天刚好调休.但接着项目颇为忙,所以今天在中秋佳节的假期里整理了下.
参加这次活动是一个朋友给的一个邀请书,才知道有这样的一个活动,虽然现在项目暂时没用到IBM的解决方案,但觉的参与这样一个活动可以拓宽下视野和相关知识.
- PL/SQL的过程编程,异常,声明变量,PL/SQL块
百合不是茶
PL/SQL的过程编程异常PL/SQL块声明变量
PL/SQL;
过程;
符号;
变量;
PL/SQL块;
输出;
异常;
PL/SQL 是过程语言(Procedural Language)与结构化查询语言(SQL)结合而成的编程语言PL/SQL 是对 SQL 的扩展,sql的执行时每次都要写操作
- Mockito(三)--完整功能介绍
bijian1013
持续集成mockito单元测试
mockito官网:http://code.google.com/p/mockito/,打开documentation可以看到官方最新的文档资料。
一.使用mockito验证行为
//首先要import Mockito
import static org.mockito.Mockito.*;
//mo
- 精通Oracle10编程SQL(8)使用复合数据类型
bijian1013
oracle数据库plsql
/*
*使用复合数据类型
*/
--PL/SQL记录
--定义PL/SQL记录
--自定义PL/SQL记录
DECLARE
TYPE emp_record_type IS RECORD(
name emp.ename%TYPE,
salary emp.sal%TYPE,
dno emp.deptno%TYPE
);
emp_
- 【Linux常用命令一】grep命令
bit1129
Linux常用命令
grep命令格式
grep [option] pattern [file-list]
grep命令用于在指定的文件(一个或者多个,file-list)中查找包含模式串(pattern)的行,[option]用于控制grep命令的查找方式。
pattern可以是普通字符串,也可以是正则表达式,当查找的字符串包含正则表达式字符或者特
- mybatis3入门学习笔记
白糖_
sqlibatisqqjdbc配置管理
MyBatis 的前身就是iBatis,是一个数据持久层(ORM)框架。 MyBatis 是支持普通 SQL 查询,存储过程和高级映射的优秀持久层框架。MyBatis对JDBC进行了一次很浅的封装。
以前也学过iBatis,因为MyBatis是iBatis的升级版本,最初以为改动应该不大,实际结果是MyBatis对配置文件进行了一些大的改动,使整个框架更加方便人性化。
- Linux 命令神器:lsof 入门
ronin47
lsof
lsof是系统管理/安全的尤伯工具。我大多数时候用它来从系统获得与网络连接相关的信息,但那只是这个强大而又鲜为人知的应用的第一步。将这个工具称之为lsof真实名副其实,因为它是指“列出打开文件(lists openfiles)”。而有一点要切记,在Unix中一切(包括网络套接口)都是文件。
有趣的是,lsof也是有着最多
- java实现两个大数相加,可能存在溢出。
bylijinnan
java实现
import java.math.BigInteger;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
public class BigIntegerAddition {
/**
* 题目:java实现两个大数相加,可能存在溢出。
* 如123456789 + 987654321
- Kettle学习资料分享,附大神用Kettle的一套流程完成对整个数据库迁移方法
Kai_Ge
Kettle
Kettle学习资料分享
Kettle 3.2 使用说明书
目录
概述..........................................................................................................................................7
1.Kettle 资源库管
- [货币与金融]钢之炼金术士
comsci
金融
自古以来,都有一些人在从事炼金术的工作.........但是很少有成功的
那么随着人类在理论物理和工程物理上面取得的一些突破性进展......
炼金术这个古老
- Toast原来也可以多样化
dai_lm
androidtoast
Style 1: 默认
Toast def = Toast.makeText(this, "default", Toast.LENGTH_SHORT);
def.show();
Style 2: 顶部显示
Toast top = Toast.makeText(this, "top", Toast.LENGTH_SHORT);
t
- java数据计算的几种解决方法3
datamachine
javahadoopibatisr-languer
4、iBatis
简单敏捷因此强大的数据计算层。和Hibernate不同,它鼓励写SQL,所以学习成本最低。同时它用最小的代价实现了计算脚本和JAVA代码的解耦,只用20%的代价就实现了hibernate 80%的功能,没实现的20%是计算脚本和数据库的解耦。
复杂计算环境是它的弱项,比如:分布式计算、复杂计算、非数据
- 向网页中插入透明Flash的方法和技巧
dcj3sjt126com
htmlWebFlash
将
Flash 作品插入网页的时候,我们有时候会需要将它设为透明,有时候我们需要在Flash的背面插入一些漂亮的图片,搭配出漂亮的效果……下面我们介绍一些将Flash插入网页中的一些透明的设置技巧。
一、Swf透明、无坐标控制 首先教大家最简单的插入Flash的代码,透明,无坐标控制: 注意wmode="transparent"是控制Flash是否透明
- ios UICollectionView的使用
dcj3sjt126com
UICollectionView的使用有两种方法,一种是继承UICollectionViewController,这个Controller会自带一个UICollectionView;另外一种是作为一个视图放在普通的UIViewController里面。
个人更喜欢第二种。下面采用第二种方式简单介绍一下UICollectionView的使用。
1.UIViewController实现委托,代码如
- Eos平台java公共逻辑
蕃薯耀
Eos平台java公共逻辑Eos平台java公共逻辑
Eos平台java公共逻辑
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2015年6月1日 17:20:4
- SpringMVC4零配置--Web上下文配置【MvcConfig】
hanqunfeng
springmvc4
与SpringSecurity的配置类似,spring同样为我们提供了一个实现类WebMvcConfigurationSupport和一个注解@EnableWebMvc以帮助我们减少bean的声明。
applicationContext-MvcConfig.xml
<!-- 启用注解,并定义组件查找规则 ,mvc层只负责扫描@Controller -->
<
- 解决ie和其他浏览器poi下载excel文件名乱码
jackyrong
Excel
使用poi,做传统的excel导出,然后想在浏览器中,让用户选择另存为,保存用户下载的xls文件,这个时候,可能的是在ie下出现乱码(ie,9,10,11),但在firefox,chrome下没乱码,
因此必须综合判断,编写一个工具类:
/**
*
* @Title: pro
- 挥洒泪水的青春
lampcy
编程生活程序员
2015年2月28日,我辞职了,离开了相处一年的触控,转过身--挥洒掉泪水,毅然来到了兄弟连,背负着许多的不解、质疑——”你一个零基础、脑子又不聪明的人,还敢跨行业,选择Unity3D?“,”真是不自量力••••••“,”真是初生牛犊不怕虎•••••“,••••••我只是淡淡一笑,拎着行李----坐上了通向挥洒泪水的青春之地——兄弟连!
这就是我青春的分割线,不后悔,只会去用泪水浇灌——已经来到
- 稳增长之中国股市两点意见-----严控做空,建立涨跌停版停牌重组机制
nannan408
对于股市,我们国家的监管还是有点拼的,但始终拼不过飞流直下的恐慌,为什么呢?
笔者首先支持股市的监管。对于股市越管越荡的现象,笔者认为首先是做空力量超过了股市自身的升力,并且对于跌停停牌重组的快速反应还没建立好,上市公司对于股价下跌没有很好的利好支撑。
我们来看美国和香港是怎么应对股灾的。美国是靠禁止重要股票做空,在
- 动态设置iframe高度(iframe高度自适应)
Rainbow702
JavaScriptiframecontentDocument高度自适应局部刷新
如果需要对画面中的部分区域作局部刷新,大家可能都会想到使用ajax。
但有些情况下,须使用在页面中嵌入一个iframe来作局部刷新。
对于使用iframe的情况,发现有一个问题,就是iframe中的页面的高度可能会很高,但是外面页面并不会被iframe内部页面给撑开,如下面的结构:
<div id="content">
<div id=&quo
- 用Rapael做图表
tntxia
rap
function drawReport(paper,attr,data){
var width = attr.width;
var height = attr.height;
var max = 0;
&nbs
- HTML5 bootstrap2网页兼容(支持IE10以下)
xiaoluode
html5bootstrap
<!DOCTYPE html>
<html>
<head lang="zh-CN">
<meta charset="UTF-8">
<meta http-equiv="X-UA-Compatible" content="IE=edge">