微闻

标签: 苹果公司

  • 苹果公司起诉以色列NSO Group

    苹果公司就间谍软件起诉以色列公司NSO

    苹果公司(Apple)对以色列NSO Group及其母公司提出诉讼,要求对方就针对Apple用户作出监控的行为负责。

    苹果公司称,NSO Group使用名为「Pegasus」的间谍软件(software; 台湾称软体)入侵iPhone使用者,该诉讼旨在寻求禁止NSO Group进一步利用苹果的产品及服务伤害个人;苹果同时亦申请永久禁制令,以禁止NSO Group使用任何苹果软件、服务或装置。

    NSO集团则全然否认苹果指控,称该公司只向拥有「良好人权记录」的国家的军事、执法和情报机关提供有关软件。

    https://www.apple.com/hk/newsroom/2021/11/apple-sues-nso-group-to-curb-the-abuse-of-state-sponsored-spyware/

    —— 苹果公司,华尔街日报、台湾雅虎

  • 苹果公司因背包检查强迫员工下班后接受搜查而支付1.9亿

    因搜查员工背包占用下班时间,苹果公司将赔偿1.9亿

    11月14日,苹果公司已提出支付2990万美元(约合人民币1.9亿元)与零售员工达成和解,这些员工称他们在下班前会接受例行的搜查。

    据报道,加州苹果零售店员工于2013年对苹果公司提起集体诉讼,理由是这些员工在工作或下班期间被迫接受公司的背包检查,苹果公司未支付员工等待检查所耗费时间的工资,此举违反了加州法律。

    2013年,苹果实施这一检查要求,要求员工遵守规则,否则或将面临解雇。

    法院表示,苹果公司对员工行使控制权,迫使他们在离开零售店休息或轮班结束之前找到经理或保安。

    值得一提的是,苹果公司辩称,在搜查过程中没有控制员工,员工可自由将背包和设备留在家中以避开检查。

    不过,加州最高法院并不同意这一说法,并提到了该州工资法中的一项法律要求,该要求表明员工在受公司控制期间应有权获得补偿。

    若和解协议获得批准,加州近1.2万名苹果零售店员工(包括已离职的)每人最多可获得约1200美元的赔偿。

    —— 彭博社,Engadget,Sina

  • 苹果公司被大学团队告上法庭

    苹果公司被大学团队告上法庭

    北化大学、东华大学的学生组队将苹果公司告上法庭,公益诉讼要求苹果必须履行附带充电器义务。

  • 苹果公司推迟发布新iPhone软件

    苹果公司推迟发布可扫描设备非法内容的iPhone软件

    苹果公司(Apple Inc., AAPL)表示,将推迟发布并改进新的iPhone软件,该软件旨在识别和通报儿童性剥削图片收藏,此举是在担心其设备隐私受到侵蚀的批评者反击下做出的。

    苹果公司上个月表示,将在今年晚些时候通过为美国用户更新iPhone系统来推出该软件。该公司已为该软件辩护了数周。但在周五的一份简短声明中,该公司表示,“决定在未来几个月内花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。”

    —— 华尔街日报

  • 苹果公司员工发表公开信提出的五大诉求

    苹果公司员工发表公开信,提五大诉求

    据gsmarena报道,苹果硅谷员工发表了一封公开信,其中提到劳工、法律和道德等问题,并表达诉求如下:

    1、在苹果的所有政策中,苹果和员工拥有的数字和物理财产之间的分离加剧;
    2、为整个苹果公司提供透明、宜居、公平、公平的薪酬;
    3、审计所有第三方关系;
    4、对员工团队、员工关系、商业行为和领导层负责;
    5、通过透明的反馈循环为团队关注的问题提供一个听取意见的过程。

  • 苹果公司以1亿美元进行了App Store大改

    苹果支付1亿美元和解开发者诉讼 并同意对App Store进行多项修改

    据外媒MacRumors报道,苹果公司周四宣布计划对App Store进行多项修改,以和解美国的开发者对苹果公司提起的集体诉讼。

    根据协议条款,苹果公司将允许开发者使用电子邮件等沟通方式,告诉客户iOS应用之外的支付方式,并将扩大开发者可以为应用、应用内购买和订阅提供的价格点。

    作为和解的一部分,苹果还计划为小型开发者设立1亿美元的“基金”,并将发布关于应用审查过程的年度透明度报告。

    —— cnbeta

  • 苹果公司加强对儿童色情内容的检测和防护

    APPLE 将检测危害儿童的色情(CSAM)内容

    首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。

    同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloud Photos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。

    在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保 “极高的准确性”,即账户不会被错误地标记。

    这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

  • 苹果公司的隐私保护问题

    苹果公司以注重于保护用户的隐私而广受好评。然而iOS生态本身是一个高度中心化的体系。iPhone会记录用户的位置、Siri功能会时刻保持监听、你买了什么,访问了什么它都知道。

    事实上,如果有一天苹果决定交出密钥进行合作,那么iPhone会是世界上最好的监视工具。