股票学习网

股票行情网,股票入门,和讯股票,股票查询 - - 股票学习网!

DDE决策选股好吗_(道德决策)

2023-08-18 15:50分类:涨停研究 阅读:

本篇文章给大家谈谈DDE决策选股好吗?,以及道德决策的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

文章详情介绍:

大噶好!今日股市学习DDE决策系统

大噶好! 今天我们来聊聊DDE决策系统

一、DDE决策系统是什么?

我们弄懂一个东西首先应该知道这是个啥,然后再明白用在什么地方,起到了一个什么效果,这才能让我们通透,好了废话不多说,DDE英文全称Data Depth Estimate,翻译过来叫做深度数据估算系统。这套决策系统包含三个决策指标:DDX、DDY、DDZ指标。

1⃣️DDX指标:称为大单动向指标,计算方法是用大单买入净量除以流通盘。

2⃣️DDY指标:称为涨跌动因指标,计算方法是用卖出买入笔数差除以总的成交笔数。

3⃣️DDZ指标:称为大单拆分指标:计算方法是用卖出买入笔数差除以卖出买入笔数之和求得大单差分值,取大单差分值乘以7为DDZ1,取大单差分值乘以3为DDZ2。

二、 DDE决策系统怎么用?

DDX、DDY、DDZ三个指标计算得出后都用图形的方法进行展示,大家可以自行进行由大到小的顺序排序,结合自己的交易逻辑,了解目前个股的短期趋势强弱进行决策。

总结:有了DDE后,也可以进行自下而上的逻辑进行选股,再自上而下进行基本面的分析,来进行投资决策,总之股票值不值钱还是市场说了算,再往小了说市场归根结底都是由量形成的,量又是由每一笔交易形成的,特别是短线交易者只有不断地跟踪好量,才能从慢慢去了解交易情绪和动机,人性难测,有了分歧股市才会美好。

未来自动驾驶汽车,能不能完全交给系统?

结论:不能,自动驾驶过程中,部分极端场景选择逻辑不能被标准化和编程化;对于道德上模糊的事件,人类必须重新获得控制权。

1967年 英国哲学家菲利帕·福特提出过《电车难题》的例子,来分析了道德导致的有意和无意的结果,去做和允许去做,支持还是拒绝之间的区别。而这也是未来自动驾驶必定会面临的伦理课题。

电车难题场景:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。但是还有一个问题,那个疯子在那另一条轨道上也绑了一个人。考虑以上状况,你应该拉拉杆吗?

两个角度做分析:

【功利主义】:选择拉杆,道德决策应根据“为最多的人提供最大的利益”的原则做出的。因此,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。

【道义主义】:选择不拉杆,生命权高于其他一切权力;生命权与生命权无法比较;一旦拉了拉杆,你就成为一个不道德行为的同谋——你要为另一条轨道上单独的一个人的死负部分责任。

这里引用德国自动驾驶伦理道德标准:

如果自动驾驶系统比人类司机造成更少的事故,那么自动驾驶系统将成为一种道德责任。

相比对动物或财产造成的伤害,系统必须最优先考虑人类安全。

如果事故不可避免,禁止任何基于年龄、性别、种族、身体特征或其它区别的歧视。

驾驶的责任方必须明确。

汽车必须安装储存驾驶记录的黑盒子。

对于是否将驾驶数据转发给第三方或给第三方使用,人类司机保留独有权。

对于道德上模糊的事件,人类必须重新获得控制权。

这本质上是一种抉择,生命的抉择不能交给系统。若完全交给系统,无视道德规则的指引,在法律中只是进行功利的价值比较,那么整个道德秩序可能崩溃,社会也会瓦解。

若完全交给系统,那系统本身可能沦为纯粹的工具。

顺道做个延伸,哲学上针对功利主义和道义主义之间的抉择事件简直不要太多:

《姚莉事件》

姚莉是某银行工作人员,一日歹徒来抢劫,保险柜中有30万元现金,抽屉里有2万元现金,姚莉和歹徒周旋,给了歹徒2万元,成功地用2万元财产保全了国家30万元财产。但后来姚莉被开除了,理由是为什么不用生命去保护国家的2万元财物。

《洞穴奇案》假象公案/《米丽雷特号事件》

“米丽雷特号”的轮船在暴风雨中沉没,4名船员,包括船长杜德利,大副史迪芬斯,船员布鲁克斯,杂役帕克,都被迫逃到救生艇上。八天没有进食之后,船长杜德利决定将已经气若悬丝的帕克杀死,三人靠帕克的血和肉存活下来。。

超越法治视角|曹刚:滴滴的七个道德难题


阿里、腾讯、滴滴们

的七个道德难题

作者:曹刚,中国人民大学伦理学与道德建设研究中心主任。曾为中国人民大学法学院博士后、中南大学法学院教师,主要研究法律职业伦理、伦理学等。

来源:微信公众号“中国伦理在线”于2021年8月26日推送。

中国人民大学伦理学与道德建设研究中心主任

曹刚教授

阿里巴巴、腾讯、滴滴们有三个共同特点:其一,它们都是互联网超级平台企业。其二,它们都拥有大数据,大数据是它们的生命线。其三,它们都是通过融资、上市、收购、投资、并购等资本运作来拓展产业蓝图,形成超级平台的。这些超级平台企业的运作、管理与治理面临着如下法律与道德难题。

01

隐私权问题

在大数据社会里,首当其冲的当然是隐私权问题,这也是人们最关切又最无奈的问题。

在《每天听见吴晓波》中介绍了一个有趣的研究。《美国国家科学院院刊》发表了一份调研报告,报告的结论是:最了解我们的不是别人,而是“赞”。据称,来自剑桥和斯坦福大学的研究团队做了一个实验,他们召集了北美86000个志愿者,一方面邀请这些志愿者的配偶、家人、朋友和同事对志愿者们进行性格分析,同时让这些志愿者在“我的性格”软件中完成一份100道题目的性格测试问卷,以此来全面了解这个人的性格特质。另一方面,打开这些志愿者的Facebook,取样他们在过去一年里点过的几百个赞:通过电脑分析10个赞,便能比他的同事更了解这个人;通过分析70个赞,对这个人的了解程度超过了他的朋友或者室友;分析150个赞以后,对这个人的了解程度就会超过他的家人;分析300个赞,对这个人的了解程度就会超过他的配偶,成为最了解他的人。这个有趣的结论在现实中也得到了验证。2012年2月16日《纽约时报》刊登了一篇题为《这些公司是如何知道您的秘密的》的文章,文章写道,一位愤怒的父亲投诉了连锁店塔吉特,因为这家商店居然给他还在读高中的的女儿邮寄了婴儿服装和孕妇服装的优惠券。让这位父亲无奈的是,尽管他千万个不愿意相信,但他女儿是真的怀孕了。为什么这家商店能知道连父亲都不知道的秘密?这是因为塔吉特的数据分析师开发了怀孕预测模型,通过分析这位女孩的购买记录——无味湿纸巾和补镁药品,就预测出了这个女顾客应该是怀孕了,既然怀孕了,自然就需要购置婴儿服装和孕妇服装。细细琢磨上述研究和案例,我们就不难理解大数据社会里隐私权保护所面临的困境了。

人性如花,扎根于阴暗潮湿之处,却努力向着阳光伸展开放,保护隐私可以说是人的根性需要。亚当和夏娃偷吃了禁果,“他们二人的眼睛就明亮了,才知道自己是赤身露体,便拿无花果树的叶子,为自己编作裙子。”可见,有了自我意识,就有了隐私意识,而有了自主意识,隐私权意识也就产生了。

按照德国联邦宪法法院运用的“范围理论”,私人领域由三个部分构成。一是最内部的“隐私领域”。这是个人最隐秘的、最不为人知的生活领域。二是私人的领域。这是除个人核心的隐私领域之外的家庭之中和私人之间生活交往的领域。三是最外部的社会领域。这是个人之间日常的交往活动中所涉及的领域。以此外推,就是公共生活领域了。三个领域由内及外,隐私性逐渐变弱,直到公共领域隐私性为零。反之,由外及内,隐私所内含的人格利益越来越多,隐私的保护力度也越来越强,直到最内部的“隐私领域”,因为与人格尊严密切相关,甚至需要通过宪法来予以确认保护。

但这样的隐私保护模式在大数据社会里似乎不灵了。一个高中女生怀孕了,这恐怕是女生最怕别人知道的秘密了。她只不过是在商店购买了无味湿纸巾和补镁药品,商店并非私人领域,购买也非秘密行动,此类药品也非私密信息,但在信息技术背景下,她所留下的各种信息都被收集、处理、编辑和合成,最后轻易地触及到了最内部的隐私领域。由此可见,在大数据的世界里,公共领域与私人领域、一般信息和敏感信息的划分已经失效了,而这种区分却是传统隐私保护的基础。可见,那种建立在区别公私领域和敏感信息的隐私伦理和隐私权保护模式遭遇到了挑战。

另一个问题是,为什么具有这种挖掘数据能力的商家就不能帮着保守秘密呢?那是因为塔吉特的数据分析师在开发怀孕预测模型时,想着的就是推销婴儿和孕妇服装。换言之,商家发明、创造、应用大数据技术的目的是挣更多的钱。其实,这种大数据的经济模式是一种隐私消费的经济模式,收集的个人数据越多、越全面,对用户的了解就越深,广告投放的针对性就越强,挣的钱就越多。可见,当个人信息的收集和处理构成了一种经济模式的构成要素时,隐私保护问题就成了一个棘手的现实问题。

02

大数据信任问题

社会信任有三种类型,即:人格信任、制度信任和大数据信任。在熟人社会里,人格诚信是主导。乡里乡亲,彼此的脾气秉性和为人处世都知根知底,是否信任对方,取决于对方的人品。在陌生人社会里,社会交往是以制度为中介的,遵纪守法才能使陌生人之间建立起普遍的、稳定的信任关系,所以制度信任是主导;在大数据社会里,拿数据说话才是最靠谱的,而这个数据是大数据。关键是,大数据信任体现了与人格信任、制度信任不同的思维模式。

在传统思维里,我信不信你,看你的德性,看你是否遵纪守法,有了这个“因”,才有信任这个“果”。事情总有个前因后果,这恐怕是我们根深蒂固的思维方式。但大数据却告诉我们,无需探寻原因,其实也难以探寻原因,你就相信结果就行了。因为只要拥有多维性、完备性和真实性的大数据,通过算法所得到的结果就是可信的。举个例子,沃尔玛的分析人员会对每个阶段的销售记录都会进行全面的分析。有一次他们无意中发现,在美国的飓风来临季节,超市的蛋挞和抵御飓风物品竟然销量都会大幅增加,虽然不明就里,但他们相信这个结论,并决定把蛋挞和飓风物品放在一起销售,结果蛋挞的销量大增,带来了丰厚的利润。这就是所谓的大数据思维。

这种大数据思维导致了两个结果,一是对大数据的盲目信任,甚至是大数据崇拜。一切的决策,无论是人生的决策,还是商业决策,甚至是政治决策,只要有大数据作为决策依据,其结论就是可信的,因而也是正当的。另一个就是对大数据的恐惧。如果我们只知道结果,却不明白整个推导的过程,也就是算法,我如何能信它?这就是“算法黑箱”带来的信任问题。就像走夜路,在漆黑的夜晚,你告诉我肯定不会出事,但这个结果并不能消除黑夜里的那种恐惧和忧虑。

信还是不信,这确实是个问题。

03

算法歧视问题

互联网上的算法歧视问题已引起人们的广泛注意。数据鸿沟会带来数据歧视。2020年8月,一段“老人无健康码乘地铁受阻”的视频在网上热传,这反映了“数字鸿沟”的年龄歧视。算法歧视还表现在雇佣歧视上。据美国卡内基梅隆大学的一项研究显示,谷歌的广告系统存在性别歧视。在推送“年薪20万美元的以上职位”的高收入工作招聘信息时,男性用户组收到1852次推送,女性用户组仅仅收到318次。女性得到的推荐机会,仅为男性的六分之一,这是性别歧视。如此等等,算法歧视已经是一种严重的社会问题了。那么,解决算法歧视问题要面临的什么难题呢?

第一,超级平台拥有算法权力,这种权力具有了某种公共性。超级平台的规模足够大,有数亿甚至数十亿的用户,并且涉及到我们生活的方方面面,由此具有某种社会基础设施的意味。你能设想买东西不用支付宝?交际无需微信?购物撇开京东?如此以来,这些平台的拥有者和管理者就拥有了准公共性的权力。问题是,国家的公共权力是人民转让和委托,并最终是为人民服务的。而这些平台所拥有的权力其实是资本的权力,资本是唯利是图的,资本为了增殖,必然会消解一切具有内在价值的东西,这其中就包括了人格尊严,而人格尊严正是平等的价值基础。歧视不过是平等的对立面,那么,一旦平等的价值基础被釜底抽薪了,算法歧视必然沉渣泛起。

第二,有些大数据崇拜者主张 “一切皆可量化”,甚至认为公平也可量化。有些学者和大数据从业者也在讨论“公平可以量化吗”的话题。在伦理学看来,这是个很奇怪的问题,甚至是不值得回答的问题,但这个话题的背后却隐含了大数据思维的一个道德盲点,即从过去预测未来,并把事实与价值、是与应当混为一谈。预测是大数据的主要功能,并成为各种决策的依据,但把大数据应用到道德决策上就会出现麻烦。以前做过坏事,将来就一定会做坏事?重新做人是否可能?封建社会的妇女人人裹脚,并以此为荣,如果有大数据预测,是否未来的社会里,妇女也应该人人裹脚?可见,算法歧视的背后还藏着很深刻的元伦理的问题。

04

算法剥削问题

《外卖骑手,困在系统里》一文中揭示了“与生命赛跑”的外卖骑手的生活困境。据称,2016年,3公里送餐距离的最长时限是1小时,2017年,变成了45分钟,2018年,又缩短了7分钟,变成了38分钟, 2019年,中国全行业外卖订单单均配送时长比3年前减少了10分钟。这让人想起了卓别林的《摩登时代》。尽管在大数据时代,算法背后的零工经济成为剥削工人的新方式,但换汤不换药,剥削的性质是一样的。

但如果如果有人告诉你,你在刷朋友圈时,在玩王者荣耀时,也是在劳动,也是在被剥削,你信吗?学者告诉我们,有一种劳动叫数字劳动,而数字劳动中,有一类是受众劳动与玩乐劳动。就是说,你在消费时,在玩时,因为生产了很多数据和信息资源,所以消费和玩也是劳动,而你生产出的这些数据和信息资源都被公司无偿占有并拿去挣钱了,这叫剥削。这种观点让人不明觉厉,莫名奇妙地觉得深刻。

啥叫剥削?不公平的利用他人的资源叫剥削。所以,这里的关键问题是,那些个大数据企业不公平地利用了你生产的信息资源了吗?如果你是成人,你获得了消费的便利和游戏的乐趣,同时给公司贡献了他们借以牟利的信息资源,这似乎没有什么不公平的。但如果公司根据人性的幽暗面,譬如好色、窥私欲、不自制等等,设计出令人成瘾的游戏或产品,让人不由“自主”地沉溺其中,而公司借以获取信息资源用以牟利,那么,这可以说是不公平地利用了他人的资源,可称其为剥削。可见,啥是数字劳动,怎么才算数字剥削,并不容易定义,它们所带来的问题也不容易解决。

05

数据主权问题

2021年6月30日,滴滴在美国纽约证券交易所上市。7月2日,网信办就发布公告称,为防范国家数据安全风险,维护国家安全,保障公共利益,对“滴滴出行”实施网络安全审查。审查期间还要停止了“滴滴出行”新用户注册。这是我国自《网络安全审查办法》发布以来的首次公开审查行动,数据主权成为观察这场监管风暴的最好视角。

根据美国证券交易委员会通过的《外国公司问责法案》最终修正案,在美国上市的滴滴必须呈交以审计底稿、或是用户数据和城市地图为代表的部分数据。要知道,滴滴的司机和乘客每天会上报数十万量级的路况事件,不断收集来自城市交通、教育、医疗、行政资源的分布的核心数据,其中包含了大量的国家机密,涉及国家安全的重大利益。包含着这些数据的审计底稿,是交还是不交?当然涉及一个国家的数据主权问题。

应该说,美国凭借其强大的政治、经济、科技实力,利用具有全球公共性质的互联网和数据资源来谋取一国之私利,并通过长臂管辖原则,不断侵犯他国主权,严重破坏了全球伦理和国际法治秩序。在这种情况下,捍卫国家的数据主权不但是必须的,也是合乎国际正义的。

值得讨论的问题是张一鸣提出的。2020年8月4日,张一鸣发表《不要在意短期损誉,耐心做好正确的事》的一封内部信,回应了公司将出售 TikTok 美国业务引发的争议。在信中,他提出,作为一家全球公司,大家工作中要有火星视角。张一鸣也许倡导的是一种“多元兼容”的企业伦理,但“火星视角”概念的提法,立即引发了网络舆情,招来了一片骂声。

火星视角是个什么视角?严格来说,火星视角是内在而又超越于地球的视角,是一个人类命运共同体的视角。在这个视角里看数据主权,也许有另一番景象。贝恰在跟池田大作对话时谈到:1648年的威斯特伐里亚条约确立了国家主权原则,这个时代“欧洲大陆当时人口稀少,到处为森林所覆盖。仅有极少数的读书人在摇曳的蜡光下读书。到什么地方谁都要徒步走去,骑马的人是极少数,而且骑在马上也很不舒服,能够坐马车旅行的人就更少了。今天,通讯和运输网巳密布于全世界,知识、快速信息、电子计算机和人造卫星等发达得几乎叫人难以相信,而且还有那种‘炸弹’。” 贝恰的结论是,国家主权作为历史的产物,它要解决当今的全球性问题已经捉襟见肘了。这意味着,我们要换一个视角来看国家主权的问题,这个视角也许就是“火星视角”,否则就难以解决这个时代面临的诸多问题,当然包括大数据所引发的各种全球问题。问题是,“火星视角”里的国家主权包括数据主权会是什么样的呢?如何解决现实国际政治中的主权冲突问题呢?这是全球伦理治理和国家法治所面临的一个难题。

06

市场垄断

“二选一”是一种典型的垄断行为。2010年腾讯和360之间爆发了“3Q大战”,这是最早的中国互联网“二选一”案例。爱库存和唯品会之争则是最近的一起“二选一”事件。在《平台经济领域的反垄断指南(征求意见稿)》中,对二选一的垄断性质已有明确界定。禁止“二选一”,就是反垄断,垄断之所以要反,是因为垄断破坏了市场经济的自由竞争秩序,垄断侵害了消费者的权益,垄断还会损害其他的社会价值。所有这些都已形成共识,不是什么难题。

最令人担忧的是,超级互联网平台会利用其垄断地位,借助资本扩张,在其他社会生活领域,取得支配地位,从而带来社会不公。当代最大的资本就是在互联网领域具有垄断地位的数字资本,资本的本能是增殖,增殖就要流动,资本流动无孔不入,是谓扩张,流到不该去的地方就是无序扩张。问题是,什么地方是资本不该去的地方呢?以阿里为例,阿里以电商为主业,在转向物流、外卖、生鲜等相关领域的同时,在文娱、体育、教育、医疗健康、出行旅游、社交、汽车交通、房产酒店等诸多领域都能看到它的身影,这些地方该去还是不该去?我觉得,其中有一个判断标准,就是数字资本不能凭借着超级平台的垄断优势,在其他具有非经济属性的领域,譬如政治、文化、教育、医疗及其他社会领域,取得话语权和支配权。否则这个社会就变成了一个资本的屠宰场。中央规定2021年的重要任务是防止垄断和资本的无序扩张,随之而来的一系列举措,都表明了给资本扩张确立道德边界的决心。

07

信息茧房

信息茧房是凯斯桑斯坦在《网络共和国》一书中提出的概念。这个词的源头,可以追溯到尼葛洛庞帝所著《数字化生存》。在这本书中,尼葛洛庞帝创造了一个词:Daily Me——我的日报。这使我想到了袁世凯。一心想当太子的袁克定伪造了专供袁世凯阅读的《顺天时报》,专门刊登一些鼓吹帝制的文章,使得袁世凯陷入“信息茧房”之中,从而影响了袁世凯的政治决策。在大数据社会里,“信息茧房”相当于超级平台通过大数据的个性化推荐,给我们每个人都办了一份报纸,报纸上都是自己喜欢看的内容,久而久之,读者便以为自己看到的就是世界的真相,坐井观天而不自知。

信息茧房是否真的存在?我是表示怀疑的,因为在现代社会,算法推荐难以做到信息源的垄断。只不过,凯斯桑斯坦是宪法学教授,他之所以提出信息茧房,是担心信息偏食会影响到民主共识的达成。这种担心具有某种警示的意义,所以我们不妨列出,将其看做是一个需要认真对待的问题。

https://www.xusbuy.com

上一篇:正规模拟炒股网站(模拟炒股软件)

下一篇:炒股一些好用指标(指标最全的炒股软件)

相关推荐

返回顶部