3斤肉上桌只剩1斤多店家称是正常现象******
□ 本报记者 张守坤
“我们点了3斤肉,结果菜端上桌之后重量只有1斤多。从店员到厨师再到老板都说菜品缩水是正常现象。”
在天津工作的张文(化名)不久前和几位朋友一起来到一家铁锅炖吃饭。店内富有东北特色的装修和座无虚席的大厅让张文对菜品充满期待,但等到菜上了桌,张文感觉到不对。
张文告诉《法治日报》记者,他们点的3斤肉包括1斤鸡肉、2斤鹅肉,服务员把菜倒进锅里后,分量一眼看上去就不对,而且只能看到鸡头和鸡爪。“我们刚开始以为是饭店少上了鹅肉,便叫来服务员询问情况。服务员表示菜品已经上全了,还找来了厨师,厨师说这些肉都是他刚刚炒过的,鹅肉鸡肉都在不会有错。”
最后,饭店老板也来了,坚持说菜品没有任何问题:“我们的肉分量都是足的,只是生肉变成熟肉的过程中会缩水,1斤生肉制成菜品可能在6两左右,这都很正常,不信的话可以去后厨看。”但当张文真准备去看时,老板却又借故离开,摆摆手说“店里生意忙,不要再闹了”,还说多送他们一份花卷和贴饼。
“这样看来,3斤肉熟了后可能只剩一半,缩水多少全由老板说了算,根本不公平。”张文说,除了肉量少,肉的“内容”也让他们感到不满。“锅里鸡脖鸡头鸡屁股都有,还有全是白膘的带皮鹅肉,真正能吃的没多少。”
缺斤短两、菜品缩水、以次充好、掺杂水分……张文就餐时遇到的糟心情况并非个例。北京市民孙洋(化名)不久前来到一家蒸汽石锅鱼店就餐,在选鱼时,老板不仅将桶和里面的水一起称重,结账时本来3斤多的鱼,却按4斤计算收费。
近日,海南省三亚市综合行政执法局发布多批旅游市场整治典型案例,就有商家擅自偷换消费者提供用于海鲜加工的活鱼、在销售皮皮虾的过程中存在掺杂水分、缺斤短两等情况。
中国法学会消费者权益保护法研究会副秘书长陈音江向记者介绍,类似这种“缩水”的缺斤短两行为,是餐饮界不够诚信守法商家的借口。不只是肉,很多食材煮熟后都会严重缩水,餐饮机构作为专业一方,生熟关系应当提前进行说明,或者在菜单上标明,顾客要求对菜品进行查看,称量时也应配合,充分保障消费者的知情权和选择权。
陈音江举例说,假如消费者要了一份炒鸡,结果全是或者大部分是鸡头鸡脚这样的边角料,明显不符合一般人的消费习惯,属于以次充好,涉嫌侵犯消费者的知情权和公平交易权。
中国政法大学副教授、中国法学会商法学研究会理事兼副秘书长朱晓娟认为,就餐中的消费者权益保障问题是关系民生的重大问题,各方应共同打造和维护安全、合理、公平的就餐质量、环境与秩序。
朱晓娟建议,商家要树立长线思维,诚实守信,应该依照餐饮行业惯例对就餐食材的计量方式等进行明示告知。对于行业协会而言,应该针对餐饮消费中反映的普遍问题进行针对性行业指引,出台自律管理细则,引导餐饮行业建立并执行合理的行业惯例,要求餐饮企业对事关消费者合法权益的相关事项进行必要的解释与说明,做到让消费者明明白白消费,充分发挥行业协会的引领作用。
北京瀛和(三亚)律师事务所执行主任张华认为,监管部门除了关注餐饮经营企业的许可、卫生条件等硬件外,对于餐饮消费中损害消费者权益的问题应进行主动监管,采取抽查、约谈等方式进行事前事中的防范与规制,对于有关投诉,要及时回应与处置。
在江苏省法学会经济法研究会理事长、江苏大学法学院副教授杜乐其看来,有关部门应加大信息化管理力度,比如某餐厅出现欺诈行为,就要第一时间将此餐厅的信用记录发布在官方网站或者公众号。同时监管部门可以加强对投诉的途径和方法的宣传力度,提高消费者的维权意识和能力。
“还应规范餐厅菜单和发票的设计,实现信息对称。菜单、发票的设计要规范、全面,比如注明菜肴的名称、分量、价格以及原料的规格;在客人结账时提供规范的发票,发票上有菜肴名称、单位、单价以及总价,这样如果消费者遭遇欺诈,发票就会成为一个有力的证据。只有充分实现消费者与经营者的信息对称,才能最大限度地防止消费者被欺诈。”杜乐其说。
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。