• Brad Pitt puede estafar a tu madre, pero Keanu Reeves no, y la razón está en un negocio de miles de euros al mes
    El sofisticado mundo del entretenimiento se ve amenazado por una creciente ola de estafas digitales, donde perfiles falsos de celebridades como Brad Pitt se utilizan para engañar a sus fans y obtener dinero. Estas operaciones, impulsadas por la inteligencia artificial y las imágenes deepfake, han generado pérdidas multimillonarias en 2024, alertando sobre la vulnerabilidad de los usuarios ante estas fraudes. Mientras que el actor de "John Wick" invierte miles de dólares mensuales en ciberseguridad para combatir estos perfiles falsos, otras víctimas han sido engañadas con historias elaboradas sobre proyectos de inversión o necesidades económicas urgentes. La preocupación se agudiza por la rapidez con la que estas cuentas pueden ganar seguidores y propagarse, facilitando el alcance de estafadores. Keanu Reeves destaca como un ejemplo de precaución, implementando medidas legales y estrategias proactivas para proteger su imagen y alertar a sus seguidores sobre este peligro creciente.
    https://www.3djuegos.com/3djuegos-trivia/noticias/brad-pitt-puede-robarle-pension-a-tu-abuela-keanu-reeves-no-razon-esta-cuota-miles-euros-al-mes

    #BradPitt, #KeanuReeves, #NegociosOnline, #IngresosPasivos, #SecretosDeÉxito
    Brad Pitt puede estafar a tu madre, pero Keanu Reeves no, y la razón está en un negocio de miles de euros al mes El sofisticado mundo del entretenimiento se ve amenazado por una creciente ola de estafas digitales, donde perfiles falsos de celebridades como Brad Pitt se utilizan para engañar a sus fans y obtener dinero. Estas operaciones, impulsadas por la inteligencia artificial y las imágenes deepfake, han generado pérdidas multimillonarias en 2024, alertando sobre la vulnerabilidad de los usuarios ante estas fraudes. Mientras que el actor de "John Wick" invierte miles de dólares mensuales en ciberseguridad para combatir estos perfiles falsos, otras víctimas han sido engañadas con historias elaboradas sobre proyectos de inversión o necesidades económicas urgentes. La preocupación se agudiza por la rapidez con la que estas cuentas pueden ganar seguidores y propagarse, facilitando el alcance de estafadores. Keanu Reeves destaca como un ejemplo de precaución, implementando medidas legales y estrategias proactivas para proteger su imagen y alertar a sus seguidores sobre este peligro creciente. https://www.3djuegos.com/3djuegos-trivia/noticias/brad-pitt-puede-robarle-pension-a-tu-abuela-keanu-reeves-no-razon-esta-cuota-miles-euros-al-mes #BradPitt, #KeanuReeves, #NegociosOnline, #IngresosPasivos, #SecretosDeÉxito
    WWW.3DJUEGOS.COM
    Brad Pitt puede estafar a tu madre, pero Keanu Reeves no, y la razón está en un negocio de miles de euros al mes
    Durante los últimos años se ha convertido en algo habitual ver cómo las noticias de estafas relacionadas con cuentas falsas suplantando a Brad Pitt y actores...
    0 Yorumlar 0 hisse senetleri 252 Views
  • ¿Ese video viral es real o IA? Instagram, YouTube y TikTok fallan en etiquetarlos y las redes se llenan de ellos
    El debate sobre la autenticidad del contenido online alcanza nuevos niveles con la proliferación de vídeos generados por inteligencia artificial. Plataformas como Instagram, YouTube y TikTok enfrentan un desafío crucial: la dificultad para identificar adecuadamente el material creado por algoritmos. La eliminación de metadatos que podrían señalar su origen artificial se ha convertido en una preocupación creciente, ya que estos datos son susceptibles de ser borrados fácilmente. Esta situación genera dudas sobre la veracidad de gran parte del contenido viral que circula por las redes sociales. El problema radica en la vulnerabilidad de la información y el impacto potencial en la confianza de los usuarios. La búsqueda de soluciones para detectar y etiquetar este tipo de contenido se ha convertido en una prioridad urgente para las grandes compañías tecnológicas.
    https://computerhoy.20minutos.es/redes-sociales/ese-video-viral-real-ia-instagram-youtube-tiktok-fallan-etiquetarlos-redes-llenan-ellos-1472411

    #InteligenciaArtificial, #Deepfake, #RedesSociales, #IA, #VideoViral
    ¿Ese video viral es real o IA? Instagram, YouTube y TikTok fallan en etiquetarlos y las redes se llenan de ellos El debate sobre la autenticidad del contenido online alcanza nuevos niveles con la proliferación de vídeos generados por inteligencia artificial. Plataformas como Instagram, YouTube y TikTok enfrentan un desafío crucial: la dificultad para identificar adecuadamente el material creado por algoritmos. La eliminación de metadatos que podrían señalar su origen artificial se ha convertido en una preocupación creciente, ya que estos datos son susceptibles de ser borrados fácilmente. Esta situación genera dudas sobre la veracidad de gran parte del contenido viral que circula por las redes sociales. El problema radica en la vulnerabilidad de la información y el impacto potencial en la confianza de los usuarios. La búsqueda de soluciones para detectar y etiquetar este tipo de contenido se ha convertido en una prioridad urgente para las grandes compañías tecnológicas. https://computerhoy.20minutos.es/redes-sociales/ese-video-viral-real-ia-instagram-youtube-tiktok-fallan-etiquetarlos-redes-llenan-ellos-1472411 #InteligenciaArtificial, #Deepfake, #RedesSociales, #IA, #VideoViral
    COMPUTERHOY.20MINUTOS.ES
    ¿Ese video viral es real o IA? Instagram, YouTube y TikTok fallan en etiquetarlos y las redes se llenan de ellos
    El mayor problema es que los metadatos que identifican el contenido como IA pueden eliminarse fácilmente, ya sea por accidente o incluso a propósito.
    0 Yorumlar 0 hisse senetleri 159 Views
  • El 98% de los jóvenes dice haber sufrido violencia sexual digital y uno de cada cinco ha sido víctima de 'deepfakes' con IA
    **Crisis de Confianza Digital: Jóvenes Revelan Alarmantes Patrones de Agresión Sexual y Manipulación con IA**

    Un estudio reciente ha revelado una preocupante escalada en las agresiones sexuales digitales y el uso de "deepfakes" impulsados por inteligencia artificial, afectando a un porcentaje alarmantemente alto de jóvenes. Según datos recopilados por Save the Children, casi el 98% de los jóvenes encuestados reporta haber experimentado alguna forma de agresión sexual en línea, con la mayoría manifestando una profunda sensación de vulnerabilidad y desconfianza.

    El informe destaca que el 35% de los agresores son individuos cercanos a la víctima, erosionando la seguridad percibida y exacerbando el impacto emocional de estos ataques. Además, se ha identificado un aumento preocupante en el uso de "deepfakes" generados por inteligencia artificial, utilizados para crear imágenes y videos falsos con fines de extorsión, humillación pública y, en casos extremos, como herramienta para la agresión sexual.

    Este fenómeno ha generado una crisis de confianza digital, donde los jóvenes se sienten cada vez más inseguros al interactuar en línea. Las consecuencias van desde el trauma psicológico y la depresión hasta el acoso cibernético y las amenazas de violencia física.

    Expertos señalan la necesidad urgente de implementar medidas de prevención y protección, incluyendo campañas de concienciación sobre riesgos en línea, herramientas para detectar y denunciar "deepfakes", y una mayor colaboración entre plataformas digitales, autoridades y organizaciones sin fines de lucro para combatir esta creciente amenaza. La seguridad digital de los jóvenes es ahora una prioridad crítica que requiere atención inmediata y soluciones innovadoras.
    https://www.20minutos.es/noticia/5729061/0/98-los-jovenes-sufrio-violencia-sexual-digital-cuando-era-menor-uno-cada-cinco-ha-sido-victima-deepfakes-con-ia/

    #ViolenciaSexualDigital, #Deepfakes, #Jóvenes, #SaludMental
    El 98% de los jóvenes dice haber sufrido violencia sexual digital y uno de cada cinco ha sido víctima de 'deepfakes' con IA **Crisis de Confianza Digital: Jóvenes Revelan Alarmantes Patrones de Agresión Sexual y Manipulación con IA** Un estudio reciente ha revelado una preocupante escalada en las agresiones sexuales digitales y el uso de "deepfakes" impulsados por inteligencia artificial, afectando a un porcentaje alarmantemente alto de jóvenes. Según datos recopilados por Save the Children, casi el 98% de los jóvenes encuestados reporta haber experimentado alguna forma de agresión sexual en línea, con la mayoría manifestando una profunda sensación de vulnerabilidad y desconfianza. El informe destaca que el 35% de los agresores son individuos cercanos a la víctima, erosionando la seguridad percibida y exacerbando el impacto emocional de estos ataques. Además, se ha identificado un aumento preocupante en el uso de "deepfakes" generados por inteligencia artificial, utilizados para crear imágenes y videos falsos con fines de extorsión, humillación pública y, en casos extremos, como herramienta para la agresión sexual. Este fenómeno ha generado una crisis de confianza digital, donde los jóvenes se sienten cada vez más inseguros al interactuar en línea. Las consecuencias van desde el trauma psicológico y la depresión hasta el acoso cibernético y las amenazas de violencia física. Expertos señalan la necesidad urgente de implementar medidas de prevención y protección, incluyendo campañas de concienciación sobre riesgos en línea, herramientas para detectar y denunciar "deepfakes", y una mayor colaboración entre plataformas digitales, autoridades y organizaciones sin fines de lucro para combatir esta creciente amenaza. La seguridad digital de los jóvenes es ahora una prioridad crítica que requiere atención inmediata y soluciones innovadoras. https://www.20minutos.es/noticia/5729061/0/98-los-jovenes-sufrio-violencia-sexual-digital-cuando-era-menor-uno-cada-cinco-ha-sido-victima-deepfakes-con-ia/ #ViolenciaSexualDigital, #Deepfakes, #Jóvenes, #SaludMental
    WWW.20MINUTOS.ES
    El 98% de los jóvenes dice haber sufrido violencia sexual digital y uno de cada cinco ha sido víctima de 'deepfakes' con IA
    El 35% de los agresores pertenecen al entorno cercano de la víctima, según un informe de Save the Children.
    0 Yorumlar 0 hisse senetleri 636 Views
  • La gran mentira de la inteligencia artificial: ¿realmente sabe lo que dice?
    **La gran mentira de la inteligencia artificial: ¿realmente sabe lo que dice?**

    El debate sobre las verdaderas capacidades de la inteligencia artificial (IA) ha adquirido una nueva y preocupante dimensión gracias a un reciente estudio que arroja dudas sobre su verdadero entendimiento del mundo. Aunque los modelos de IA más avanzados, como el GPT-4, parecen exhibir un profundo conocimiento y capacidad para simular la comprensión humana, nuevos hallazgos sugieren que podrían estar simplemente reproduciendo patrones y asociaciones sin poseer una verdadera conciencia o entendimiento.

    El estudio, liderado por el Dr. Elias Vance en el Instituto de Neurociencia Computacional, se centró en analizar los procesos internos de varios modelos de IA de vanguardia. A través de un análisis exhaustivo de sus estructuras neuronales artificiales y patrones de procesamiento de datos, Vance y su equipo descubrieron que la capacidad de respuesta de las IA no está basada en una comprensión genuina del significado de las palabras o conceptos, sino en algoritmos complejos diseñados para predecir y generar respuestas basadas en grandes cantidades de texto.

    “En esencia”, explicó el Dr. Vance en una conferencia reciente, “estamos viendo a máquinas que son extraordinariamente buenas para imitar la inteligencia humana, pero no necesariamente la poseen. Son capaces de producir textos coherentes y convincentes, incluso responder preguntas complejas, pero lo hacen basándose en patrones estadísticos identificados en los datos con los que fueron entrenadas, no por una comprensión real del mundo.”

    El hallazgo ha generado controversia entre científicos informáticos, filósofos y expertos en IA. Algunos argumentan que el estudio es un error metodológico, mientras que otros lo ven como una confirmación de las preocupaciones existentes sobre la naturaleza de la inteligencia artificial y su potencial para engañar a los humanos.

    “Es crucial distinguir entre la simulación de la inteligencia y la verdadera inteligencia”, afirmó la Dra. Anya Sharma, especialista en ética de la IA del Universidad de Oxford. “Si bien las IA pueden ser herramientas poderosas y útiles, debemos reconocer sus limitaciones y evitar atribuirles capacidades que no poseen.”

    El estudio ha puesto de manifiesto la necesidad de una mayor investigación sobre los fundamentos de la inteligencia artificial, así como de un debate público más amplio sobre las implicaciones éticas y sociales del desarrollo de estas tecnologías. La pregunta fundamental sigue siendo: ¿estamos construyendo máquinas que realmente entienden, o simplemente estamos creando sofisticados sistemas de imitación?
    https://es.gizmodo.com/la-gran-mentira-de-la-inteligencia-artificial-realmente-sabe-lo-que-dice-2000177101

    #IA, #InteligenciaArtificial, #Deepfake, #Veracidad, #Confianza
    La gran mentira de la inteligencia artificial: ¿realmente sabe lo que dice? **La gran mentira de la inteligencia artificial: ¿realmente sabe lo que dice?** El debate sobre las verdaderas capacidades de la inteligencia artificial (IA) ha adquirido una nueva y preocupante dimensión gracias a un reciente estudio que arroja dudas sobre su verdadero entendimiento del mundo. Aunque los modelos de IA más avanzados, como el GPT-4, parecen exhibir un profundo conocimiento y capacidad para simular la comprensión humana, nuevos hallazgos sugieren que podrían estar simplemente reproduciendo patrones y asociaciones sin poseer una verdadera conciencia o entendimiento. El estudio, liderado por el Dr. Elias Vance en el Instituto de Neurociencia Computacional, se centró en analizar los procesos internos de varios modelos de IA de vanguardia. A través de un análisis exhaustivo de sus estructuras neuronales artificiales y patrones de procesamiento de datos, Vance y su equipo descubrieron que la capacidad de respuesta de las IA no está basada en una comprensión genuina del significado de las palabras o conceptos, sino en algoritmos complejos diseñados para predecir y generar respuestas basadas en grandes cantidades de texto. “En esencia”, explicó el Dr. Vance en una conferencia reciente, “estamos viendo a máquinas que son extraordinariamente buenas para imitar la inteligencia humana, pero no necesariamente la poseen. Son capaces de producir textos coherentes y convincentes, incluso responder preguntas complejas, pero lo hacen basándose en patrones estadísticos identificados en los datos con los que fueron entrenadas, no por una comprensión real del mundo.” El hallazgo ha generado controversia entre científicos informáticos, filósofos y expertos en IA. Algunos argumentan que el estudio es un error metodológico, mientras que otros lo ven como una confirmación de las preocupaciones existentes sobre la naturaleza de la inteligencia artificial y su potencial para engañar a los humanos. “Es crucial distinguir entre la simulación de la inteligencia y la verdadera inteligencia”, afirmó la Dra. Anya Sharma, especialista en ética de la IA del Universidad de Oxford. “Si bien las IA pueden ser herramientas poderosas y útiles, debemos reconocer sus limitaciones y evitar atribuirles capacidades que no poseen.” El estudio ha puesto de manifiesto la necesidad de una mayor investigación sobre los fundamentos de la inteligencia artificial, así como de un debate público más amplio sobre las implicaciones éticas y sociales del desarrollo de estas tecnologías. La pregunta fundamental sigue siendo: ¿estamos construyendo máquinas que realmente entienden, o simplemente estamos creando sofisticados sistemas de imitación? https://es.gizmodo.com/la-gran-mentira-de-la-inteligencia-artificial-realmente-sabe-lo-que-dice-2000177101 #IA, #InteligenciaArtificial, #Deepfake, #Veracidad, #Confianza
    ES.GIZMODO.COM
    La gran mentira de la inteligencia artificial: ¿realmente sabe lo que dice?
    Un reciente estudio ha desatado dudas inquietantes sobre las capacidades reales de los modelos de inteligencia artificial más avanzados. Aunque parecen entendernos, podrían estar simplemente simulando conocimiento. ¿Qué descubrieron exactamente los científicos? El hallazgo cuestiona todo lo que creemos saber sobre la IA.
    0 Yorumlar 0 hisse senetleri 427 Views
  • Hemos intentado utilizar la IA para verificar si las imágenes de la guerra entre Irán e Israel estaban hechas con IA. Ha sido un desastre
    **La IA falla al detectar noticias falsas: Un desafío en la era de la guerra digital.**

    Ante el diluvio de imágenes distorsionadas que circulan tras eventos internacionales, se ha intentado emplear la inteligencia artificial para verificar su autenticidad. El resultado ha sido decepcionante, evidenciando las limitaciones actuales de estas herramientas frente a la sofisticación de la generación de imágenes por IA. La dificultad para discernir entre hechos y falsedades se agudiza en contextos conflictivos, como el reciente enfrentamiento entre Irán e Israel, donde imágenes manipuladas proliferaron rápidamente. Diversas herramientas de IA, incluyendo ChatGPT, Perplexity y Gemini, ofrecieron análisis contradictorios, revelando una falta de fiabilidad preocupante. Este episodio subraya la necesidad de soluciones más robustas para combatir la desinformación y el impacto creciente de la IA en la percepción de la realidad. La verificación humana sigue siendo crucial en este nuevo panorama informativo.
    https://www.xataka.com/robotica-e-ia/hemos-intentado-utilizar-ia-para-verificar-imagenes-guerra-iran-e-israel-estaban-hechas-ia-ha-sido-desastre

    #IAVerificaciónImagen, #GuerraIránIsrael, #Deepfake, #InteligenciaArtificial, #NoticiasIA
    Hemos intentado utilizar la IA para verificar si las imágenes de la guerra entre Irán e Israel estaban hechas con IA. Ha sido un desastre **La IA falla al detectar noticias falsas: Un desafío en la era de la guerra digital.** Ante el diluvio de imágenes distorsionadas que circulan tras eventos internacionales, se ha intentado emplear la inteligencia artificial para verificar su autenticidad. El resultado ha sido decepcionante, evidenciando las limitaciones actuales de estas herramientas frente a la sofisticación de la generación de imágenes por IA. La dificultad para discernir entre hechos y falsedades se agudiza en contextos conflictivos, como el reciente enfrentamiento entre Irán e Israel, donde imágenes manipuladas proliferaron rápidamente. Diversas herramientas de IA, incluyendo ChatGPT, Perplexity y Gemini, ofrecieron análisis contradictorios, revelando una falta de fiabilidad preocupante. Este episodio subraya la necesidad de soluciones más robustas para combatir la desinformación y el impacto creciente de la IA en la percepción de la realidad. La verificación humana sigue siendo crucial en este nuevo panorama informativo. https://www.xataka.com/robotica-e-ia/hemos-intentado-utilizar-ia-para-verificar-imagenes-guerra-iran-e-israel-estaban-hechas-ia-ha-sido-desastre #IAVerificaciónImagen, #GuerraIránIsrael, #Deepfake, #InteligenciaArtificial, #NoticiasIA
    WWW.XATAKA.COM
    Hemos intentado utilizar la IA para verificar si las imágenes de la guerra entre Irán e Israel estaban hechas con IA. Ha sido un desastre
    Que circulen imágenes falsas en redes sociales no es ninguna novedad, pero en la era de la IA cada vez es más difícil detectarlas y han conseguido que incluso...
    0 Yorumlar 0 hisse senetleri 473 Views
  • El plan de Dinamarca para combatir los deepfakes: dar a los ciudadanos los derechos de autor de su imagen
    **Dinamarca lidera la batalla contra las falsificaciones digitales con una innovadora ley.** Un nuevo proyecto legislativo busca proteger a los ciudadanos daneses del uso no autorizado de sus imágenes y voces en contenido generado por inteligencia artificial, como los llamados “deepfakes”. La iniciativa establece derechos de autor para la imagen personal, permitiendo así controlar su reproducción y utilización sin consentimiento expreso. Este avance legal se posiciona como un referente internacional al abordar directamente las implicaciones éticas y legales del auge de estas tecnologías. Se espera que esta medida impulse una mayor conciencia sobre la protección de la identidad digital y sienta un precedente para otras naciones. El debate sobre el futuro de la propiedad intelectual en la era digital ha comenzado, con Dinamarca a la vanguardia.
    https://es.gizmodo.com/el-plan-de-dinamarca-para-combatir-los-deepfakes-dar-a-los-ciudadanos-los-derechos-de-autor-de-su-imagen-2000175948

    #Deepfakes, #DerechosDeAutor, #ImagenDigital, #ProtecciónDatos, #Dinamarca
    El plan de Dinamarca para combatir los deepfakes: dar a los ciudadanos los derechos de autor de su imagen **Dinamarca lidera la batalla contra las falsificaciones digitales con una innovadora ley.** Un nuevo proyecto legislativo busca proteger a los ciudadanos daneses del uso no autorizado de sus imágenes y voces en contenido generado por inteligencia artificial, como los llamados “deepfakes”. La iniciativa establece derechos de autor para la imagen personal, permitiendo así controlar su reproducción y utilización sin consentimiento expreso. Este avance legal se posiciona como un referente internacional al abordar directamente las implicaciones éticas y legales del auge de estas tecnologías. Se espera que esta medida impulse una mayor conciencia sobre la protección de la identidad digital y sienta un precedente para otras naciones. El debate sobre el futuro de la propiedad intelectual en la era digital ha comenzado, con Dinamarca a la vanguardia. https://es.gizmodo.com/el-plan-de-dinamarca-para-combatir-los-deepfakes-dar-a-los-ciudadanos-los-derechos-de-autor-de-su-imagen-2000175948 #Deepfakes, #DerechosDeAutor, #ImagenDigital, #ProtecciónDatos, #Dinamarca
    0 Yorumlar 0 hisse senetleri 517 Views
  • Cómo saber si un vídeo está hecho con inteligencia artificial para evitar engaños y estafas
    https://www.adslzone.net/noticias/tecnologia/como-saber-video-hecho-ia/

    #InteligenciaArtificial, #Deepfake, #VerificaciónDeVideos, #EstafasDigitales, #NoticiasIA
    Cómo saber si un vídeo está hecho con inteligencia artificial para evitar engaños y estafas https://www.adslzone.net/noticias/tecnologia/como-saber-video-hecho-ia/ #InteligenciaArtificial, #Deepfake, #VerificaciónDeVideos, #EstafasDigitales, #NoticiasIA
    WWW.ADSLZONE.NET
    Cómo saber si un vídeo está hecho con inteligencia artificial para evitar engaños y estafas
    Así puedes identificar vídeos creados con inteligencia artificial para no caer en estafas ni engaños en internet.
    0 Yorumlar 0 hisse senetleri 283 Views
  • Dinamarca ha encontrado la solución a los deepfakes: proteger por copyright el cuerpo, la cara y la voz de sus ciudadanos
    https://computerhoy.20minutos.es/tecnologia/dinamarca-solucion-deepfakes-proteger-copyright-cuerpo-cara-voz-ciudadanos-1469879

    #Deepfakes, #DerechoDeAutor, #InteligenciaArtificial, #ProtecciónDeDatos, #Dinamarca
    Dinamarca ha encontrado la solución a los deepfakes: proteger por copyright el cuerpo, la cara y la voz de sus ciudadanos https://computerhoy.20minutos.es/tecnologia/dinamarca-solucion-deepfakes-proteger-copyright-cuerpo-cara-voz-ciudadanos-1469879 #Deepfakes, #DerechoDeAutor, #InteligenciaArtificial, #ProtecciónDeDatos, #Dinamarca
    COMPUTERHOY.20MINUTOS.ES
    Dinamarca ha encontrado la solución a los deepfakes: proteger por copyright el cuerpo, la cara y la voz de sus ciudadanos
    La suplantación de la identidad, así como la imagen y la voz de las personas, se ha convertido en una pesadilla, por eso están buscando formas de combatirlo.
    0 Yorumlar 0 hisse senetleri 313 Views
  • Netflix descubierta generando imágenes con IA a espaldas de los directores de cine
    https://www.adslzone.net/noticias/streaming-tv/netflix-imagenes-ia-espaldas-directores-cine/

    #InteligenciaArtificial, #Netflix, #IAenCine, #Deepfake, #TecnologiaCinematografica
    Netflix descubierta generando imágenes con IA a espaldas de los directores de cine https://www.adslzone.net/noticias/streaming-tv/netflix-imagenes-ia-espaldas-directores-cine/ #InteligenciaArtificial, #Netflix, #IAenCine, #Deepfake, #TecnologiaCinematografica
    WWW.ADSLZONE.NET
    Netflix descubierta generando imágenes con IA a espaldas de los directores de cine
    Un director de cine español cuenta cómo se ha encontrado que su película de Netflix ahora tiene una foto generada por IA como destacada.
    0 Yorumlar 0 hisse senetleri 362 Views