关于道德经的小故事
关于道德经的小故事
在社会中穿梭忙碌的人们,身上一定要需要两种最重要的东西,一种是知识,而另一种是道德。如果说知识是进入社会,贡献社会的法宝,那么,道德就是立足于社会的身份证。没有道德,就不能在社会中生存。下面是学习啦小编为您整理的关于道德经的小故事,希望对你有所帮助!
关于道德经的小故事篇一:爱的道德
布拉格实在非常小,小到只用半天时间就能走完。但是根据米兰·昆德拉小说《生命不能承受之轻》改变的电影《布拉格之恋》让它闻名于世。
卡夫卡生前就居住在这个城市的黄金小巷22号。卡夫卡每天都要到西贝斯卡大街的雅可咖啡馆里进行思考和写作,维持生命的就是老板送的几片面包,他从来不问世事。卡夫卡的特立独行引起了一个女人的注意。她坐到卡夫卡对面,从桌子上拿起他写好的稿纸阅读,卡夫卡写一页,她便读一篇——那是《变形计》手稿,在当时没有谁能读懂,但这个女人是个例外。在离开之前,她通过酒侍留下一张便笺,上面写着:“我不得不承认,我喜欢上了你和你的作品。”
这个女人是俄罗斯著名记者密列娜·杰森斯卡。当时她已经是一位银行家的夫人,但是杰森斯卡对卡夫卡隐藏了这一切。从此以后,他们开始通过布拉格的绿色邮差交流情感。
但是,1920年的一个偶然机会让卡夫卡得知杰森斯卡原来是有夫之妇,他陷入了深深的思索。之后卡夫卡便停止了与杰森斯卡的一切联系。1921年,当杰森斯卡再次来到布拉格,再次来到这家咖啡馆时,她没有见到卡夫卡。熟悉的亚麻桌布下,空留了一副旧刀叉。
杰森斯卡来到布拉格的那个晚上,卡夫卡坐在咖啡馆幽暗的灯影里给杰森斯卡写出了最后一封信:“我现在已经记不起你脸庞的样子呢,只有你离开咖啡桌那一霎那的背影及衣饰历历在目。”
他们后来再也没有见过面。直到卡夫卡弥留之际,人们才听到已经处于昏迷状态的他口里呢喃着杰森斯卡的名字。
不横刀夺爱,不在爱的名义下苟且,把爱人放在光明之外,把自己放在光明之处。卡夫卡用孤寂的一生表达了自己对爱的尊重——这应该就是爱的最高道德了吧。
关于道德经的小故事篇二:规则大于道德
一个人即使有犯罪动机,如果没有造成犯罪的结果,法律也对他无可奈何。思想再坏,没有行动,就不能说他是个坏人。同样,富人是不是为富不仁,也不是思想品德问题,而是看手段和结果。
君子爱财,取之有道,可见爱不爱财无关紧要,用什么方法去取,才是问题的实质。
曾经有某餐馆,考验过食客的道德水平。他们让食客根据自己对菜品的满意程度定价,先吃后定,定多少收多少。此举一出,食客盈门是自然的,餐馆赔本也是自然的。据记者报道,90%以上的食客都吃得呼儿嗨哟,但这并不妨碍他们都定出了比地板更低的价,普遍只付了不及成本的10%的钱,有的只是象征性地付一两个硬币,有的干脆连硬币都不付,一副“吃大户”的模样。消息终于暴出,媒体又抓到了热点,一个商业行为上升为一场道德讨论,见诸报端的,无不是对国人素质之低的切齿痛斥。
餐馆老板难道有病,竟然忘记了自私是人的天性?人不为己,天诛地灭,这句话其实是很符合进化论的。不管富人?穷人,内心的贪欲都根深蒂固,人们常说为富不仁,只是因为穷人的不仁没有暴露出来而已,于是就把不仁的帽子戴到富人头上,这是不公平的。
餐馆老板清醒得很,我估计,这只不过是一个策划,是一种促销手段而已,等到他的餐馆声名鹊起,等到食客尝出了味道,他再按市场行情收费也不迟。
曾经挑起亚洲金融风暴的“金融大鳄”索罗斯,在很多人看来简直是十恶不赦,但偏偏是他,因为行善而成为第二届“代顿和平奖”得主。他的主要事迹是捐出巨款,支援波斯尼亚地区的战后重建,以及他所领导的量子基金对多项慈善活动的大力支持。此种行为在中国也很多,但大多带有商业色彩,因而惯性思维的中国记者就对索罗斯提出这样的问题:这是您的天性还是树立形象的需要?索罗斯回答:在金融市场,我只是按规则办事,我遵守规则,谈不上道德不道德。
其实说穿了,也就是因为有高额遗产税,国外的富豪们才大多在生前捐出大部分的财产,不仅是索罗斯,而是一种普遍的现象。富人的仁,不是道德的促成,而是制度的结果。
按规则办事,这就够了。
经济和道德,实际上是两个范畴,虽然有所交叉,但绝不能混为一谈。谁都有不仁的可能,所以才需要市场的规范,需要法律的约束,让不仁的行为付出代价,让不仁的愿望不能实现。富人们仁不仁,不仅是人心好不好的问题,更重要的是社会健不健全的表现。如果一个社会到处都在嚷嚷着“为富不仁”,那么不仁的不仅是富人,还有这个社会本身。
关于道德经的小故事篇三:机器人也要讲道德
根据科幻作家阿西莫夫的同名小说改编的电影《我,机器人》里有这样一个场景:2035年的一个早晨,机器人与人类一起穿梭在美国芝加哥繁忙的街道上,它们在送快递,帮主人遛狗,做搬运工,急着回家给主人拿急救药品——这并非遥不可及,日前,谷歌公司的机器人汽车项目就有可能让这一虚构成为现实。
今年5月,美国内华达州为一辆搭载谷歌智能驾驶系统的汽车颁发了牌照,允许这辆无须人工驾驶的汽车在公共道路上测试行驶。据行业人士预计,自动驾驶汽车在欧美有望于3年至5年后投入使用。
根据国际机器人联合会网站公布的数据,自1961年以来,全球机器人的销售总量已达230万,2011年销量最高,达到16万台。眼下,全球机器人产业已处在一个蓬勃发展的上升期。
阿西莫夫定律的困境
当机器人越来越多地渗透到人们的生活中,由此引发的法律与道德问题也随之而来。
英国谢菲尔德大学人工智能与机器人学教授诺尔·沙吉举例说,设想你的机器人汽车正在开往停车场,此时一个儿童正在附近玩耍。一辆卡车开来,溅起的尘土干扰了机器人汽车的传感器,机器人汽车因不能感知儿童的存在而造成交通事故。那么谁应该对此负责,是机器生产厂家、软件工程师还是机器人自身?
随着机器人越来越聪明,用途越来越广泛,机器人最终将面临这样一种情境:在不可预知的条件下做出道德判断——在有平民存在的情况下,无人飞机是否应该对目标所在房间开火?参与地震救援的机器人是否应该告诉人们灾难真相,即使那样会引发恐慌?机器人汽车是否应该为了避免撞到行人而突然转向,即使那样会撞到其他人?
1942年,阿西莫夫提出了机器人三定律:机器人不得伤害人类,或者目睹人类将遭受危险而袖手不管;机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
看似完美的三定律在电影《我,机器人》中遇到了麻烦;在儿童和成人同时出现交通事故时,机器人会计算出成人存活率高,选择优先救成年人,而不是儿童。在这种情况下,如何教会机器人进行道德判断就被提上了日程。
像人一样学习道德
怎么教机器人学会道德判断?《道德机器:教会机器人如何判断对和错》一书的作者之一、美国印第安纳大学科学史和科学哲学系教授科林·艾伦表示,这要从人类修习德行的方法中去寻找。
他举例说,2010年4月的美国纽约街头,一名见义勇为的男子在与歹徒搏斗后奄奄一息,但在近两个小时里,先后有20多名行人路过却无人伸出援手。该男子终因失血过多而死亡。人们对道德的理解有时候并不和实际行动相符。为什么会这样呢?
对此,艾伦解释说,在现实中,人们往往“本能地”做出反应,并没有考虑行为所产生的道德问题。古希腊哲学家亚里士多德就认为,人需要在现实中不断地践行有道德的行为,最终使其成为一种习惯。在以后再遇到道德选择时,才能不经思考就能表现出良好的品行。
因此,艾伦认为,可以设计一些具有简单规则的机器人汽车。当汽车遇到上述情况的时候,学习着去进行救助,然后再根据一些道德规范,对机器人汽车的“救助”行为进行分析和肯定,从而逐渐培养起它们的道德感。
然而,另一个更为复杂的问题接踵而来。当人类本身尚对诸如网络下载、堕胎以及安乐死等问题的看法存在分歧的时候,工程师们也不知道应该将哪一套道德体系输入机器人。同时,将一种价值判断应用于具体案例时,也会有分歧。比如,在不伤害到别人的情况下,实话被认为是美德。如果说谎能促进友谊,且不伤害到双方,这时说谎就是“对的”。基于人类道德的差异性,机器人的道德可能会有若干版本。
当机器人像人一样开始学习并实践道德,它们是否会超越和取代人类?艾伦说,他现在还不担心这一点,眼下需要做的事是如何教会机器人做出正确的道德判断。至于怎样的道德判断是正确的,这个问题,恐怕连人类有时候都还没有弄清楚。
猜你喜欢:
1.道德经的故事精选
2.道德礼仪小故事
5.激励上进的小故事